
Dados desbalanceados, opacidade dos algoritmos e métricas de avaliação inadequadas podem gerar resultados injustos e perpetuar preconceitos em sistemas de IA.
Dados desbalanceados, opacidade dos algoritmos e métricas de avaliação inadequadas podem gerar resultados injustos e perpetuar preconceitos em sistemas de IA.
QUESTÃO 66
Dados desbalanceados, opacidade dos algoritmos e métricas de avaliação inadequadas podem gerar resultados injustos e perpetuar preconceitos em sistemas de IA. Para mitigar esses problemas, são recomendadas práticas como auditorias, uso de dados representativos, explicabilidade e escolha criteriosa das métricas.
Fonte: LOPES, C. M. N.; MENDES, J. C. Ética e Inteligência Artificial: desafios e melhores práticas. Revista da UFMG, v. 30, e47673, 2023.
Considerando o texto apresentado, analise as afirmativas a seguir:
I. Dados históricos, por si só, garantem imparcialidade e justiça nos modelos de IA.
II. A coleta de dados representativos ajuda a evitar vieses e melhorar a equidade nos resultados.
III. A opacidade dos algoritmos facilita a compreensão de suas decisões, fortalecendo a confiança social.
IV. Auditorias periódicas e a explicabilidade dos sistemas são práticas recomendadas para reduzir injustiças algorítmicas.
V. A utilização de métricas inadequadas em conjuntos de dados desbalanceados pode criar uma falsa impressão de bom desempenho.
É correto o que se afirma em:
Alternativas
Alternativa 1 - I, II e III, apenas.
Alternativa 2 - I, III e IV, apenas.
Alternativa 3 - I, IV e V, apenas.
Alternativa 4 - II, III e V, apenas.
Alternativa 5 - II, IV e V, apenas.
