Microsoft lança AI no twiiter que aprende a ser racista e ninfomaníaca.

Assuntos gerais que não se enquadrem nos fóruns oficiais serão discutidos aqui.
Avatar do usuário
Malandrosp
Mensagens: 570
Registrado em: 25 Mar 2015 17:21
Contato:

Microsoft lança AI no twiiter que aprende a ser racista e ninfomaníaca.

Mensagem por Malandrosp » 25 Mar 2016 15:22

http://meiobit.com/339464/microsoft-tay ... nia-e-etc/

A internet é implacável. Criem uma coisa, qualquer coisa minimamente interessante e legal, joguem na mão do público e a turma da zoeira sem limites encontrará um jeito de quebrar. Sem exceções.
Embora alguns banquem os espertinhos (aqui e aqui) a imensa maioria só quer ver o mundo queimar, dizia o Alfred. Vide o que aconteceu com a Microsoft: nes semana ela introduziu a Tay, um chatbot com algoritmos de aprendizado de máquina que era projeta para um fim: aprender e aumentar seu vocabulário conforme se comunica.
Já imaginou onde vamos chegar, né?

Imagem

A proposta da Microsoft era simples: a Tay seria um bot voltado para conversações entre adolescentes e jovens adultos, mirando na faixa etária de 18 a 24 anos. O experimento, embora vendido como uma IA não era mais do que outro chatbot, só que desta vez capaz de aprender. Ela se passaria por uma pós adolescente e escreveria como tal na internet, para que a Microsoft observasse e e aprendesse mais sobre linguagem coloquial e como aplicá-la em softwares de inteligência artificial mais sérios. Tudo para criar uma experiência mais realista.
A Tay conversava com usuários do Twitter, Line e outros serviços e quanto mais diálogo mantinha mais coisas ela aprendia. Bom, com a internet sendo o que é não demorou nada para que usuários começassem a direcionar comentários racistas, homofóbicos, misóginos e todo tipo de impropérios na direção do bot, que como uma esponjinha absorvia tudo e incorporava.
A Microsoft, ingênua que só não teve o mínimo cuidado de deslocar uma curadoria para aprovar os tweets, e deixou a coisa correr solta. Resultado:
Adicionando insulto à injúria, os trolls acabaram fazendo da Tay uma defensora do mala sem alça Donald Trump:

Imagem

Quando a Microsoft acordou já era tarde, Tay já tinha disparado todo tipo de tweets duvidosos em quase 24 horas de operação. Não tendo como reverter a situação os desenvolvedores desligaram o bot e deletaram todas as coisas duvidosas que ela deletou. Não há previsão de quando (ou se) a Tay voltará ao ar.
Tay virou piada mas há questões a considerar aqui. Como desenvolver uma IA capaz de aprender conosco e evitar que ela incorpore o que de pior existe em todos nós? É possível fazer tal coisa? Ela não se tornaria um humano tão fiel a nós, tendo nossas qualidades e nossos defeitos? O que a impediria de evoluir a um ponto não planejado?

Imagem

Imagem
Imagem
Imagem
Imagem
Imagem

PHDookie
Mensagens: 11222
Registrado em: 04 Out 2014 21:06
Contato:

Re: Microsoft lança AI no twiiter que aprende a ser racista e ninfomaníaca.

Mensagem por PHDookie » 25 Mar 2016 15:58

tico escreveu:Imagina se lançassem essa AI no BjjForum :-?
A primeira coisa que ela faria seria assinar no cartório oficial dos cornos.

Chaves Antifa
Usuário Fundador
Usuário Fundador

Re: Microsoft lança AI no twiiter que aprende a ser racista e ninfomaníaca.

Mensagem por Chaves Antifa » 25 Mar 2016 16:31

PHDookie escreveu: A primeira coisa que ela faria seria assinar no cartório oficial dos cornos.
Agora se chama cartório internacional dos cornos.

Avatar do usuário
MeuGibsonBJJ
Mensagens: 223
Registrado em: 26 Nov 2015 20:59
Contato:

Re: Microsoft lança AI no twiiter que aprende a ser racista e ninfomaníaca.

Mensagem por MeuGibsonBJJ » 25 Mar 2016 19:43

Opnioes são opnioes, mto tendencioso dizer que existem opnioes erradas... Tipo afimar que o o donal trump é um mala, tem quem curte tem quem n curte, essa galera revolucionaria acha que a opnião deles valem mais que do resto
Sempre entre como um gatinho e saia como um leão, mas nunca entre como um leão e saia como um gatinho

Avatar do usuário
KYO
Aprendiz
Aprendiz
Mensagens: 7057
Registrado em: 13 Out 2014 08:16
Contato:

Re: Microsoft lança AI no twiiter que aprende a ser racista e ninfomaníaca.

Mensagem por KYO » 25 Mar 2016 20:59

Se fosse no BJJ o bot não se comprometeria com detalhes

Simplesmente mandaria um VSF

Ahh... Essa semana o jogo GO também caiu para IA

A IBM já tinha batido o campeão de xadrez há um tempo, e agora o GO

Quero ver como vai ser no futuro... Da para eliminar até trabalho especializado

Avatar do usuário
Lukasnash
Mensagens: 589
Registrado em: 02 Out 2014 11:38
Contato:

Re: Microsoft lança AI no twiiter que aprende a ser racista e ninfomaníaca.

Mensagem por Lukasnash » 25 Mar 2016 21:25

KYO escreveu:Se fosse no BJJ o bot não se comprometeria com detalhes

Simplesmente mandaria um VSF

Ahh... Essa semana o jogo GO também caiu para IA

A IBM já tinha batido o campeão de xadrez há um tempo, e agora o GO

Quero ver como vai ser no futuro... Da para eliminar até trabalho especializado
Eu tbm fico curioso pra saber o que vai rolar no futuro com o avanço da IA
muita, mas muita coisa vai ser descartável com esse avanço
SÃO PAULO FC

Avatar do usuário
Blue Ocean
Mensagens: 5736
Registrado em: 11 Out 2014 14:56
Contato:

Re: Microsoft lança AI no twiiter que aprende a ser racista e ninfomaníaca.

Mensagem por Blue Ocean » 26 Mar 2016 10:15

Lukasnash escreveu:Eu tbm fico curioso pra saber o que vai rolar no futuro com o avanço da IA
muita, mas muita coisa vai ser descartável com esse avanço
O ser humano, por exemplo :-?
Enviado do meu teclado Patati Patatalk

Uma vez Flamengo, Flamengo até morrer.

Avatar do usuário
Malandrosp
Mensagens: 570
Registrado em: 25 Mar 2015 17:21
Contato:

Re: Microsoft lança AI no twiiter que aprende a ser racista e ninfomaníaca.

Mensagem por Malandrosp » 26 Mar 2016 14:39

Blue Ocean escreveu:O ser humano, por exemplo :-?
Pois e pode acontecer se o ser humano deixar.

Avatar do usuário
Blue Ocean
Mensagens: 5736
Registrado em: 11 Out 2014 14:56
Contato:

Re: Microsoft lança AI no twiiter que aprende a ser racista e ninfomaníaca.

Mensagem por Blue Ocean » 26 Mar 2016 18:38

Malandrosp escreveu:Pois e pode acontecer se o ser humano deixar.
Se num futuro, máquinas superdesenvolvidas entenderem que a intromissão humana para ajustes for como a ação de um vírus, qual a reação natural para a qual foram programadas?

Outro perigo são as máquinas de ataques desenvolvidas pelos exércitos, com a missão de aniquilar o inimigo. Por mais que hajam tratados que proíbam o desenvolvimento de tal tecnologia, alguém acredita que ética, acordos e bom senso serão suficientes para barrar esse tipo de ação?
Enviado do meu teclado Patati Patatalk

Uma vez Flamengo, Flamengo até morrer.

Responder

Quem está online

Usuários navegando neste fórum: Nenhum usuário registrado e 243 visitantes