A internet é implacável. Criem uma coisa, qualquer coisa minimamente interessante e legal, joguem na mão do público e a turma da zoeira sem limites encontrará um jeito de quebrar. Sem exceções.
Embora alguns banquem os espertinhos (aqui e aqui) a imensa maioria só quer ver o mundo queimar, dizia o Alfred. Vide o que aconteceu com a Microsoft: nes semana ela introduziu a Tay, um chatbot com algoritmos de aprendizado de máquina que era projeta para um fim: aprender e aumentar seu vocabulário conforme se comunica.
Já imaginou onde vamos chegar, né?

A proposta da Microsoft era simples: a Tay seria um bot voltado para conversações entre adolescentes e jovens adultos, mirando na faixa etária de 18 a 24 anos. O experimento, embora vendido como uma IA não era mais do que outro chatbot, só que desta vez capaz de aprender. Ela se passaria por uma pós adolescente e escreveria como tal na internet, para que a Microsoft observasse e e aprendesse mais sobre linguagem coloquial e como aplicá-la em softwares de inteligência artificial mais sérios. Tudo para criar uma experiência mais realista.
A Tay conversava com usuários do Twitter, Line e outros serviços e quanto mais diálogo mantinha mais coisas ela aprendia. Bom, com a internet sendo o que é não demorou nada para que usuários começassem a direcionar comentários racistas, homofóbicos, misóginos e todo tipo de impropérios na direção do bot, que como uma esponjinha absorvia tudo e incorporava.
A Microsoft, ingênua que só não teve o mínimo cuidado de deslocar uma curadoria para aprovar os tweets, e deixou a coisa correr solta. Resultado:
Adicionando insulto à injúria, os trolls acabaram fazendo da Tay uma defensora do mala sem alça Donald Trump:

Quando a Microsoft acordou já era tarde, Tay já tinha disparado todo tipo de tweets duvidosos em quase 24 horas de operação. Não tendo como reverter a situação os desenvolvedores desligaram o bot e deletaram todas as coisas duvidosas que ela deletou. Não há previsão de quando (ou se) a Tay voltará ao ar.
Tay virou piada mas há questões a considerar aqui. Como desenvolver uma IA capaz de aprender conosco e evitar que ela incorpore o que de pior existe em todos nós? É possível fazer tal coisa? Ela não se tornaria um humano tão fiel a nós, tendo nossas qualidades e nossos defeitos? O que a impediria de evoluir a um ponto não planejado?










