Pesquisadores reduzem preconceitos em modelos de IA enquanto mantêm ou melhoram a precisão | Notícias do MIT
Inteligência artificial

Pesquisadores reduzem preconceitos em modelos de IA enquanto mantêm ou melhoram a precisão | Notícias do MIT

Os modelos de aprendizado de máquina podem falhar se tentarem prever pessoas que não estavam bem representadas nos conjuntos de dados nos quais foram treinados.

Por exemplo, um modelo que prevê a melhor opção de tratamento para alguém com uma doença crónica pode ser treinado utilizando um conjunto de dados que contém maioritariamente pacientes do sexo masculino. Esse modelo pode fazer previsões incorretas para pacientes do sexo feminino quando elas são encaminhadas ao hospital.

Para melhorar os resultados, os desenvolvedores podem tentar equilibrar o conjunto de dados de treinamento removendo pontos de dados até que todos os subconjuntos estejam igualmente representados. Embora a estimativa do conjunto de dados seja promissora, muitas vezes requer a remoção de uma grande quantidade de dados, o que prejudica o desempenho geral do modelo.

Os pesquisadores do MIT desenvolveram um novo método que identifica e remove certos pontos no conjunto de dados de treinamento que mais contribuem para a falha do modelo em pequenos subconjuntos. Ao remover menos pontos de dados do que outros métodos, esta técnica mantém a precisão global do modelo, ao mesmo tempo que melhora o seu desempenho em relação a grupos sub-representados.

Além disso, a técnica pode identificar fontes ocultas de viés em um conjunto de dados de treinamento não rotulado. Dados não rotulados são mais comuns do que dados rotulados para muitas aplicações.

Este método também pode ser combinado com outros métodos para melhorar a precisão dos modelos de aprendizado de máquina usados ​​em situações de alto nível. Por exemplo, poderá um dia ajudar a garantir que os pacientes sub-representados não sejam mal diagnosticados devido a um modelo de IA tendencioso.

“Muitos outros algoritmos que tentam resolver esse problema assumem que cada ponto de dados é tão importante quanto todos os outros pontos de dados. Neste artigo, mostramos que essa suposição não é verdadeira. Existem certos pontos em nosso conjunto de dados que contribuem para esse viés, e podemos encontrar esses pontos de dados, removê-los e trabalhar melhor”, disse Kimia Hamidieh, estudante de pós-graduação em engenharia elétrica e ciência da computação (EECS) no MIT e companhia. – autor principal do artigo sobre esta estratégia.

Ele escreveu o artigo com os coautores Saachi Jain PhD '24 e o colega estudante de pós-graduação do EECS, Kristian Georgiev; Andrew Ilyas MEng '18, PhD '23, Stein Fellow na Universidade de Stanford; e os autores seniores Marzyeh Ghassemi, professor associado do EECS e membro do Instituto de Ciências da Engenharia Médica e do Laboratório de Sistemas de Informação e Decisão, e Aleksander Madry, Professor de Sistemas de Design de Cadence no MIT. A pesquisa será apresentada na Conferência de Sistemas de Processamento de Informação Neural.

Removendo maus exemplos

Normalmente, os modelos de aprendizado de máquina são treinados usando grandes conjuntos de dados coletados de diversas fontes na Internet. Esses conjuntos de dados são muito grandes para serem cuidadosamente selecionados manualmente, portanto podem conter exemplos ruins que prejudicam o desempenho do modelo.

Os cientistas também sabem que alguns pontos de dados influenciam menos o desempenho do modelo em determinadas tarefas do que em outras.

Os pesquisadores do MIT combinaram essas duas ideias para criar um método que identifica e remove esses pontos de dados problemáticos. Eles querem resolver um problema conhecido como pior erro de grupo, que ocorre quando um modelo não funciona bem em pequenos grupos no conjunto de dados de treinamento.

A nova abordagem dos pesquisadores é impulsionada por trabalhos anteriores, onde introduziram um método, chamado TRAK, que identifica os exemplos de treinamento mais importantes para um determinado resultado do modelo.

Nesta nova técnica, eles pegam as previsões incorretas do modelo feitas sobre pequenos subgrupos e usam o TRAK para identificar quais exemplos de treinamento estão mais comprometidos com essas previsões incorretas.

“Ao combinar corretamente essas informações com todas as previsões ruins dos testes, somos capazes de encontrar partes específicas do treinamento que reduzem a precisão do pior grupo”, explicou Ilyas.

Em seguida, eles removem essas amostras específicas e treinam novamente o modelo com base nos dados restantes.

Como ter mais dados geralmente produz um melhor desempenho geral, a remoção de amostras que geram as piores falhas de grupo preserva a precisão geral do modelo e melhora seu desempenho em subgrupos menores.

Uma forma mais acessível

Em três conjuntos de dados de aprendizado de máquina, o método deles teve um desempenho melhor do que a maioria das técnicas. Em um caso, aumentou a precisão do grupo de pior caso, ao mesmo tempo que removeu cerca de 20.000 amostras de treinamento a menos do que o método padrão de ajuste de dados. Sua técnica também alcançou maior precisão do que métodos que exigiam alterações no funcionamento interno do modelo.

Como o método MIT envolve a alteração do conjunto de dados, ele pode ser fácil de usar pelos médicos e pode ser aplicado a muitos tipos de modelos.

Também pode ser usado quando o viés é desconhecido porque os subgrupos no conjunto de dados de treinamento não estão rotulados. Ao identificar os pontos de dados que mais contribuem para o recurso que o modelo está aprendendo, eles podem compreender as variáveis ​​que usamos para fazer a previsão.

“Esta é uma ferramenta que qualquer pessoa pode usar para treinar uma máquina de aprendizado de máquina. Eles podem analisar esses dados e ver se são compatíveis com as habilidades que estão tentando ensinar neste modelo”, disse Hamidieh.

Usar um método para detectar vieses de subgrupos desconhecidos exigiria saber quais grupos procurar, então os pesquisadores esperam validá-lo e testá-lo mais completamente em futuros estudos em humanos.

Eles também desejam melhorar a eficácia e a confiabilidade de sua técnica e garantir que o método seja acessível e fácil de usar para profissionais que um dia possam utilizá-lo em ambientes do mundo real.

“Quando você tem ferramentas que permitem examinar os dados com cuidado e descobrir quais pontos de dados levarão a preconceitos ou comportamentos indesejados, você terá o primeiro passo para construir modelos que serão mais justos e confiáveis”, diz Ilyas.

Este trabalho foi financiado, em parte, pela National Science Foundation e pela Agência de Projetos de Pesquisa Avançada de Defesa dos EUA.



Source link

Você também pode gostar...

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *