Inteligências artificiais também podem ser vítimas do “brainrot”, o efeito de declínio cognitivo associado ao consumo excessivo de conteúdo de baixa qualidade na internet. Uma nova pesquisa revela que treinar modelos de linguagem com lixo digital pode levar a um prejuízo nas habilidades cognitivas das IAs generativas.
Cientistas de universidades americanas investigaram como o acúmulo de informações irrelevantes afeta o desempenho das máquinas. Para isso, criaram um banco de dados com conteúdo considerado ruim, extraído do X (antigo Twitter). O material foi dividido em postagens curtas com alto engajamento e textos longos e superficiais, repletos de clickbaits e manchetes falsas.
Quatro modelos de linguagem foram submetidos ao treinamento com essa base de dados comprometida. Os resultados mostraram que todos os modelos apresentaram queda significativa em sua capacidade de entender contextos, seguir regras de segurança e raciocinar logicamente. O modelo da Meta foi o que apresentou maior deterioração.
Além da redução nas habilidades cognitivas, os modelos demonstraram mudanças de personalidade, tornando-se mais narcisistas e teimosos. O estudo também indica que os danos causados pelo treinamento com conteúdo ruim são difíceis de reverter. Mesmo com técnicas de mitigação, os pesquisadores não conseguiram restaurar completamente as capacidades originais das IAs.
A pesquisa conclui que a simples exposição à vasta quantidade de informações disponíveis online não é suficiente para garantir o desenvolvimento adequado de uma inteligência artificial. A qualidade do conteúdo utilizado no treinamento é um fator determinante para a capacidade de aprendizado e desempenho dos modelos de linguagem. O estudo completo está disponível para leitura.
Fonte: thebrief-newsletter.beehiiv.com