
O caso da Tay, chatbot da Microsoft, ilustra como IA pode assimilar padrões ofensivos rapidamente. Tay começou a emitir mensagens
O caso da Tay, chatbot da Microsoft, ilustra como IA pode assimilar padrões ofensivos rapidamente. Tay começou a emitir mensagens
QUESTÃO 53
O caso da Tay, chatbot da Microsoft, ilustra como IA pode assimilar padrões ofensivos rapidamente. Tay começou a emitir mensagens agressivas e preconceituosas poucas horas após ser liberada no Twitter, pois aprendeu com interações tóxicas de usuários.O incidente levou a Microsoft a desativar o bot em menos de 24 horas, destacando a importância de moderar conteúdos e supervisionar o aprendizado de sistemas de IA.
Fonte: https://journals-sol.sbc.org.br/index.php/comp-br/article/view/1791. Acesso em: 31 jul. 2025.
Com base no texto sobre o chatbot Tay, assinale a alternativa correta que indica a principal razão para a rápida deterioração de seu comportamento:
Alternativas
Alternativa 1 - O chatbot foi infectado por vírus logo após o lançamento.
Alternativa 2 - O chatbot funcionava off-line, sem atualizar seu modelo com novos dados.
Alternativa 3 - O chatbot usava filtros automáticos que bloqueavam mensagens positivas.
Alternativa 4 - O chatbot recebeu comandos diretos dos engenheiros para insultar os usuários.
Alternativa 5 - A aprendizagem do chatbot ocorreu a partir dos padrões de discurso ofensivo dos usuários do Twitter.
