quinta-feira, 9 de março de 2017

Cathy O’Neill : Desfazendo as Tendências de Algoritmos Inconsistentes

Pesquisa & Traducao : Miguel Moyses Neto


No despertar da crise dos bancos em 2008, Cathy O’Neill, uma ex professora de matemática no Barnard College revirou os dados dos Hedge Funds Cientificos, e chegou a conclusões que os algoritmos, em que ela acreditava que poderiam solucionar problemas com a pura logica, mas ao invés disso, eles estavam sendo criados a uma grande velocidade e escala. Agora O’Neill – que trabalha com matemática primaria no seu blog popular e com 11.000 seguidores no Twitter – trabalha para trazer alguma luz para o lado sombrio dos Big Data : modelos matemáticos que operam sem transparência, sem nenhuma regulação, e – pior de tudo – sem possibilidade de fazer nada, se eles estiverem errados. Ela e a fundadora do Leads Program Para Dados de Jornalismo na Columbia University, e seu livro best-seller, Wepons of Math Destruction ( Crown, 2016), foi nomeados para o National Book Award de 2016.
Nos perguntamos O’Neill sobre a criação dos modelos  matemáticos responsáveis para o uso de negocios para tomar decisões criticas.
Pergunta: Se um algoritmo e aplicado igualmente para tudo, como poderiam ser os resultados tendenciosos?
Cathy O’Neill: Os algoritmos não são inerentemente corretos ou confiáveis, somente porque são matemáticos. “Lixo para dentro, lixo também para fora” ainda se sustenta. Existem muitos exemplos : Em Wall Street, as hipotecas usadas com o suporte de segurança dos algoritmos falharam porque eles eram simplesmente uma mentira. Um programa desenhado para acessar performances de professores baseados somente em testes resultam em falhas porque eles são somente estatísticos; mais ainda haveria muito mais para aprender do que testar. Uma startup customizada fazendo anuncios em que eu trabalhei, criou um sistema que fornecia anuncios para as coisas que os usuários queriam, mas que os colleges usavam para lucros, foram usados com a mesma estrutura para identificar e pregar em receitas menores para mães solteiras as quais somente teriam formação de educação sem nenhuma qualidade e formação. Modelos no sistema judiciário que recomendavam sentenças e previsões de recidivas também tendem a ter como base e dados em politicas terríveis de dados, particularmente de prisões, para que as previsões sempre sejam raciais e misturadas.
Pergunta: Estas tendências foram introduzidas deliberadamente para um algoritmo fazer previsões equivocadas ?
O’Neill: Não ! Imagine uma cia com um histórico de discriminação contra mulheres querendo mais mulheres para o gerenciamento de politicas e escolhas para usar uma maquina de algoritmos para escolhas para usar uma maquina de aprendizado de algoritmos com dados históricos sobre empregados bem sucedidos dos últimos 20 anos, e eles definem empregos bem sucedidos como pessoas que foram mantidas por 5 anos e promovidas pelo menos duas vezes. Eles tem grandes intenções. Eles não estão tentando ser tendenciosos; eles estão tentando mitigar as tendências. Mas se eles estão treinando os algoritmos com dados passados de uma época quando eles tratavam seus funcionários do sexo feminino da maneira que era impossível para elas encontrarem uma definição especifica de sucesso, o algoritmo vai aprender a filtrar mulheres fora de suas condições curriculares, o que era exatamente o que elas não queriam. Eu não estou criticando o conceito dos Big Data. Eu simplesmente estou acautelando todos para alertar as queixas exageradas sobre os trusts cegos dos modelos matemáticos.
Pergunta: Quais são as redes de proteção que os lideres prepararam para a contra-partida das tendências que poderiam ser perigosas para os seus negocios?
O’Neill: Eles precisam fazer as perguntas sobre isso, e dar suporte para os processos no sentido de avaliar os algoritmos que eles planejam empregar. Como inicio, eles deveriam buscar evidencias de que os algoritmos funcionem da maneira que eles querem, e se estas evidencia não são suficientes, eles não deveriam emprega-los. De outra maneira, eles estão somente automatizando os problemas. Desde que um algoritmo esteja estabelecido no lugar, as organizações precisam testar se os seus modelos de dados tem uma aparência justa na vida real. Por exemplo, a cia mencionada antes que quer empregar mulheres na sua linha de direção, poderia procurar a proporção das mulheres que se apresentam para um emprego antes de usar o algoritmo. Se nas aplicações a queda for de 50% mulheres para 25% mulheres, esta simples amostra e um sinal de que alguma coisa esta errada e precisa ser verificada mais a frente. Muito poucsa organizações são construídas em processos no sentido de acessar e melhorar os algoritmos. Existe uma que faz isso : a Amazon, todos os passos dela são checados e as experiências são otimizadas, e se isso sugere um produto que eu e as pessoas como eu não gostam, o algoritmo percebe e para de me mostrar. E um canudo de feedbacks, porque a Amazon presta muita atenção para o que os clientes estão na realidade levando em conta nas sugestões dos algoritmos.
Pergunta : VC repetidamente alerta sobre os perigos de usar o aprendizado das maquinas para codificar equívocos do passado, essencialmente,” Se VC fizer o que tem feito sempre, VC ira conseguir sempre aquilo que tem conseguido.” Qual e o maior dos riscos que as cias tomam quando estão confiando nas suas decisões tomadas em modelos de dados?
O’Neill: O maior risco e confiar no próprio modelo de dados para não se expor ao risco, principalmente ao risco legalmente acionável. A qualquer tempo VC esta considerando usar um algoritmo sob condições de regulação, como emprego, promoções, ou vigilância, VC com certeza tera que se auditar para a legalidade. Isso parece completamente obvio; se e ilegam discriminar contra as pessoas com base em certos critérios, por exemplo, VC não deveria usar um algoritmo que faz isso ! E mesmo assim as empresas sempre usam algoritmos discriminatórios porque não ocorre a elas perguntar sobre, ou elas não sabem quais perguntas fazer, ou os vendors ou os desenvolvedores não providenciaram visibilidade suficiente para os algoritmos nesta questão para ser facilmente solucionável.
Pergunta: Quais são as ramificações para os negocios e se elas persistem em acreditar que os dados são neutros?
O’Neill: quanto mais evidencias aparecerem, os algoritmos desenhados falharem, os algoritmos podem causar problemas, e eu penso que as pessoas que os usam serão acusadas pelos resultados ruins que eles causarem. A era das negações plausíveis para os resultados de usar os Big Data – aquela habilidade de dizer que que eles foram gerados sem o seu conhecimento – esta chegando ao fim. Mesmo agora, os algoritmos baseados e usados através de decisões tomadas estao muito a frente dos advogados e regulações, mas eu acho que isso não vai durar muito. Os reguladores já estão dando passos em direção aos algoritmos auditados em função das propriedades ilegais. Sempre que VC usar um sistema automático, ele gera uma historia de seu próprio uso. Se VC usar um algoritmo que tenha sido ilegalmente tendencioso, a evidencia estará la na forma de um rastro para ser auditado. Isto e um arquivo permanente, e nos precisamos pensar sobre nossas responsabilidades para assegurar que estão funcionando bem. D!
BH 09/03/2017
Uma pequena informação, quando compartilhada pode percorrer um grande caminho, mas acaba sempre encontrando seu legitimo destinatário !!!

Pesquisa,Traducao & Divulgação: Miguel Moyses Neto  Se gostou desta matéria , divulgue para seus amigos  ou também pode visitar nosso linkedin http://br.linkedin.com/pub/miguel-moyses-neto/28/971/9aa---Twitter: @mikenetIT onde VC poderá ver as principais agencias de noticias e os links das empresas & nomes mais famosos do mundo! ou simplesmente visite nosso blog :
Bremense Participacoes Ltda
  


Desde 1940

      



Nenhum comentário:

Postar um comentário