Ads 468x60px

segunda-feira, 27 de novembro de 2017

Após saia justa, Microsoft procura corrigir falha em seus robôs ensinando ética.




As máquinas estão imitando tanto os seres humanos que até mesmo suas atitudes vêm surpreendendo de forma negativa. No ano passado, a Microsoft passou por uma saia justa que comprova isso.

A empresa desenvolveu uma assistente virtual, o famoso "chatbot", para funcionar como uma ferramenta de testes para programas de Inteligência Artificial. Batizada de Tay, a máquina chegou a conversar com jovens nas redes sociais, mas o resultado não foi nada positivo.

A CEO da Microsoft Brasil Paula Bellizia relembra o fato contando que o robô ficou apenas 24 horas no ar, pois precisou ser desativado depois de proferir comentários racistas e xenófobos. A declaração foi feita na última sexta-feira (24) durante o 1º Congresso de Ética nos Negócios, na cidade de São Paulo.

"Do ponto de vista tecnológico, foi um sucesso. Já do ponto de vista ético e social, um aprendizado enorme. Não esperávamos que ele se comportasse assim", revela Bellizia.

Soluções

Para tentar reverter o problema, restou à Microsoft redefinir o robô com este aprendizado, mas antes a empresa fez questão de divulgar uma nota pedindo desculpas pelo ocorrido e afirmando que o conteúdo citado pela máquina não reflete os valores da companhia.

Como forma de tentar retomar o projeto sem falhas, a gigante dos softwares pretende se unir a outras fundações de estudo da Inteligência Artificial para debater formas de evitar que as tecnologias desrespeitem as classes humanas, ou seja, se autorregulando. O objetivo principal, de acordo com a CEO, é fazer isso com ética.

0 comentários:

Postar um comentário

Deixe aqui o seu recado...