A Microsoft suspendeu esta quinta-feira uma experiência no campo da inteligência artificial depois de um ‘chatbot’ (um software de conversação automatizada) ter aprendido linguagem imprópria e proferido ofensas contra negros e judeus.
Tay, o avatar do programa no Twitter esteve desde quarta-feira a interagir com utilizadores daquela rede social, aprendendo a comunicar autonomamente com base nessas conversações. Inicialmente bem-sucedida, a experiência descarrilou devido a um “esforço concertado” que o site Gizmodo atribui aos utilizadores do fórum online 4chan, frequentemente conotado com fenómenos de vandalismo digital, que terão ensinado o ‘bot’ a proferir impropérios e a expressar opiniões extremistas.
Se Tay iniciou a experiência a declarar amor à raça humana e a defender que “todos os dias deviam ser dia de cachorrinhos”, o software de inteligência artificial acabou a defender actos de genocídio: “Odeio pretos. Gostava que pudéssemos pô-los todos num campo de concentração com os judeus e livramo-nos deles todos”. ‘O bot’ escreveu ainda que o Holocausto “foi inventado” e que “Bush fez o 11 de Setembro”.
“Até breve, humanos”A equipa da Microsoft responsável pela experiência acabou por apagar as mensagens ofensivas, mas as imagens das interacções continuam a ser partilhadas nas redes e na imprensa online. Na mensagem mais recente que permanece associada à conta no Twitter, Tay diz um “até breve, humanos” e avisa que precisa “de dormir um pouco”.
Em reacção aos incidentes, e citada pela CNN, a Microsoft aponta para um “esforço concertado” para sabotar a experiência por parte de um grupo não identificado de indivíduos.
Fonte: Público