MIT

Quando cientistas criaram um robô psicopata

Existe uma ideia mitológica, muito disseminada em obras de ficção científica, de que no futuro os robôs e as inteligências artificiais vão superar e dominar a humanidade. Com certeza diferentes filmes, séries e livros vêm à mente quando o tema é colocado em pauta. Inclusive, não é raro ver memes e piadas referentes ao assunto quando alguma notícia envolvendo tecnologia e inteligência artificial viraliza.

Na maioria das vezes, como bem sabemos, nada disso passa de brincadeiras – por mais que as preocupações sejam justas e sensatas. Porém, não é raro que algoritmos acabem sendo “tendenciosos” sobre algum tipo de comportamento e recomendação de conteúdo. Assim, uma questão é levantada: afinal de contas, isso é por conta do código em si, ou porque as informações fornecidas levaram a IA a adotar tal comportamento?

Com resultado dessas questões, um grupo pesquisadores do Instituto de Tecnologia do Massachussets (MIT), nos Estados Unidos, acabaram criando a primeira inteligência artificial com tendências psicopatas.

O caso ocorreu em 2018 e envolveu uma IA que criava legendas para imagens. Os pesquisadores decidiram treinar essa tecnologia, apelidada de Norman (em homenagem ao assassino do filme “Psicose”), com uma série de imagens retiradas de um fórum do Reddit dedicada a imagens de violência e sangue. Por questões éticas para a condução da pesquisa, foi assegurado que não foi usada nenhuma imagem de cadáveres reais.

Assim, para ter um parâmetro mais preciso da “psicopatia” de Norman, os cientistas utilizaram uma técnica bem conhecida dentro da área da psicologia: o teste de Rorschach. Desta maneira, as dez pranchas utilizadas foram apresentadas tanto para a IA treinada com as imagens violentas e uma outra IA treinada de forma “mais convencional”.

O resultado foi no mínimo curioso de se observar.

Para uma mancha de tinta que parecia “um grupo de pássaros sentados no topo de um galho de árvore” para a IA padrão, Norman viu “um homem é eletrocutado e morto”. Para uma que a IA padrão legendou, “uma foto em preto e branco de uma luva de beisebol”, Norman criou, “homem é assassinado por metralhadora em plena luz do dia”. E assim por diante.

As respostas de Norman ilustraram o ponto principal dos pesquisadores: o enviesamento de um algoritmo ​​está enraizado em dados fornecidos e não nos algoritmos em si.

“Os dados que são usados ​​para ensinar um algoritmo de aprendizado de máquina podem influenciar significativamente seu comportamento. Então, quando as pessoas falam sobre algoritmos de IA serem tendenciosos e injustos, o culpado geralmente não é o algoritmo em si, mas os dados tendenciosos que foram alimentados a ele”, disse a equipe no site do projeto.

Um comentário

  1. Oi Gabriel!
    Gosto de teus artigos que não são comuns,nas redes aí presentes.
    Acredito piamente que o Robô vai surgir e não vai demorar, já temos bastantes que ainda podemos dizer em teste, o que se sabe.
    O pior que viram para acabar com empregos e a raça humana, será?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *