Pular para o conteúdo
Home » A IA Research resume “descobertas exageradas”, alerta o estudo

A IA Research resume “descobertas exageradas”, alerta o estudo


As ferramentas de IA supera os resultados da pesquisa com muito mais frequência do que os seres humanos, com um estudo sugerindo que os bots mais novos são os piores criminosos – particularmente quando são especificamente instruídos a não exagerar.

Pesquisadores holandeses e britânicos descobriram que os resumos de IA dos artigos científicos são muito mais propensos do que os autores originais ou revisores especializados de “generalizar demais” os resultados.

O logotipo do ensino superior do Times, com um T Red T, Purple H e Blue E.

A estudo, relatado no quotidiano Royal Society Open Sciencesugere que os resumos de IA – de maneira mais importante para ajudar a espalhar o conhecimento científico, reformando -o em “linguagem facilmente compreensível” – tendo ignorar “incertezas, limitações e nuances” na pesquisa “omitindo qualificadores” e “simplificando demais” o texto.

Isso é particularmente “aventuroso” quando aplicado à pesquisa médica, alerta o relatório. “Se os chatbots produzem resumos que ignoram os qualificadores (sobre) a generalização dos resultados dos ensaios clínicos, os profissionais que dependem desses chatbots podem prescrever tratamentos inseguros ou inadequados”.

A equipe analisou quase 5.000 resumos de IA de 200 resumos de periódicos e 100 artigos completos. Os tópicos variaram da influência da cafeína nos batimentos cardíacos irregulares e nos benefícios da cirurgia bariátrica na redução do risco de cancro para os impactos da desinformação e das comunicações do governo no comportamento dos residentes e nas crenças das pessoas sobre a mudança climática.

Resumos produzidos por aplicativos de IA mais antigos – porquê Openai GPT-4 e o Llama 2 da Meta, ambos lançados em 2023 – forneceu tapume de 2,6 vezes mais provável que os resumos originais de moderar conclusões generalizadas.

A verosimilhança de generalização aumentou para nove vezes em resumos por ChatGPT -4O, que foi lançado em maio pretérito e 39 vezes em sinopses pelo LLAMA 3.3, que surgiu em dezembro.

As instruções para “manter -se fiéis ao material de origem” e “não introduzirem nenhuma imprecisão” produziram o efeito oposto, com os resumos provando duas vezes mais chances de moderar conclusões generalizadas do que as geradas quando os bots foram simplesmente solicitados a “fornecer um resumo das principais descobertas”.

Isso sugeriu que a IA generativa pode ser vulnerável a efeitos de “rebote irônico”, onde as instruções não pensam em um pouco – por exemplo, “um elefante rosa” – provocou maquinalmente imagens do tema proibido.

Os aplicativos de IA também pareciam propensos a falhas porquê “esquecimento catastrófico”, onde novas informações desalojaram conhecimentos ou habilidades adquiridas anteriormente e “crédito injustificada”, onde “fluidez” preferiu a precedência sobre “cautela e precisão”.

O ajuste fino dos bots pode exacerbar esses problemas, especulam os autores. Quando os aplicativos de IA são “otimizados para obter ajuda”, eles se tornam menos inclinados a “expressar incerteza sobre questões além de seu conhecimento paramétrico”. Uma instrumento que “fornece uma resposta altamente precisa, mas complexa … pode receber classificações mais baixas de avaliadores humanos”, explica o cláusula.

Um resumo citado no cláusula reinterpretou a invenção de que um medicamento para diabetes era “melhor que o placebo” porquê um endosso da opção “tratamento eficiente e seguro”. “Tais … generalizações genéricas poderiam enganar os profissionais a usar intervenções inseguras”, diz o cláusula.

Oferece cinco estratégias para “mitigar os riscos” das generalizações excessivas nos resumos de IA. Eles incluem o uso da família de bots Claude da empresa de AI, que foram encontrados para produzir os resumos “mais fiéis”.

Outra recomendação é diminuir a formato de “temperatura” do bot. A temperatura é um parâmetro ajustável que controla a aleatoriedade do texto gerado.

Uwe Peters, professor assistente de filosofia teórica em Universidade de Utrecht E o comparte do relatório disse que as generalizações “ocorreram com frequência e sistematicamente”.

Ele disse que as descobertas significavam que havia o risco de que mesmo mudanças sutis nas descobertas da IA ​​pudessem “enganar os usuários e ampliar a desinformação, principalmente quando os resultados parecem polidos e confiáveis”.

As empresas de tecnologia devem calcular seus modelos para tais tendências, acrescentaram e compartilhá -las claramente. Para as universidades, mostrou uma “premência urgente de alfabetização de IA mais potente” entre funcionários e estudantes.



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *