
Ultimamente, tenho lido Óleo de serpente ai por Arvind Narayanan e Sayash Kapoor, e tem sido um passeio bastante perspicaz. O livro mergulha profundamente nas promessas e nas armadilhas da IA, e isso me fez refletir – novamente – uma pergunta que eu explorei antes: Chatgpt realmente entender linguagem humana? E se isso intercorrer, porquê?
Eu já toquei nisso de uma perspectiva técnica no meu livro Chatgpt para professoresmas a tomada de Narayanan e Kapoor acrescenta outra categoria à discussão-uma que é reveladora e instigante.
A conformidade do “besteira”
Uma das linhas mais impressionantes do livro é o seguinte:
“O filósofo Harry Frankfurt definiu besteira porquê um exposição que se destina a persuadir sem considerar a verdade. Nesse sentido, os chatbots são besteiros. Eles são treinados para produzir texto plausível, não declarações verdadeiras. O chatgpt é chocantemente bom em parecer persuasivo em qualquer tópico concebível. ” (p. 139)
Essa conferência me impediu de trilhos. Quero expor, já escrevi sobre porquê a IA não pensar Porquê nós, e porquê o entendimento da linguagem é puramente estatístico – mas enquadrar dessa maneira o torna simples.
O ChatGPT não processa o que significa porquê os humanos. Em vez disso, ele vê a linguagem porquê uma rede de tokens interconectados, cada um previsto estatisticamente com base no antes dela. Quando você faz uma pergunta, não pensa na resposta – calcula a próxima termo mais provável com base em trilhões de exemplos anteriores.
Para colocar isso em perspectiva: de entendimento com Narayanan e Kapoor, unicamente gerando um A termo requer sobre um trilhão de operações aritméticas. Um poema com algumas centenas de palavras? Isso é um quadrilhão de cálculos. Deixe isso naufragar por um momento. É alucinante-e nem seria verosímil sem o poder insano das GPUs modernas.
Mas e quanto a “entender”?
Portanto, o chatgpt entende a linguagem? Não no caminho nós fazer. A linguagem humana é mais do que unicamente gramática e sintaxe – está em camadas com significado, intenção, cultura e contexto. É por isso que uma frase porquê a famosa de Noam Chomsky “Idéias verdes incolores dormem furiosamente” é gramaticalmente correto, mas semanticamente sem sentido. Uma IA pode reconhecê -la porquê uma frase adequada, mas isso entende por que não fazer sentido na conversa humana?
Surpreendentemente, a resposta parece ser Sim – em certa medida. Porquê Narayanan e Kapoor colocam:
“Entender não é tudo ou zero. Os chatbots podem não entender um tópico de maneira tão profunda ou da mesma maneira que uma pessoa – mormente um perito – pode, mas eles ainda podem entendê -lo em qualquer proporção útil. ” (p. 137)
Em outras palavras, o chatgpt não é desinformado. Pode reconhecer padrões, estruturar a linguagem harmónico e produzir texto que sentimentos significativo. Caso contrário, suas respostas seriam unicamente uma bobagem aleatória. E sejamos honestos-a produção do GPT-4 é frequentemente estranhamente humana.
As profundezas ocultas das redes neurais
Um dos pontos mais fascinantes em Óleo de serpente ai É que o ChatGPT não foi explicitamente treinado em gramática ou sintaxe. E, no entanto, através de suas profundas redes neurais, ela tem de alguma forma aprendido Compreender a estrutura da linguagem e até as nuances que seus desenvolvedores não a ensinaram diretamente.
Os autores explicam esse fenômeno da seguinte forma:
“Entendendo os chatbots no sentido de edificar representações internas do mundo através de seu processo de treinamento. Novamente, essas representações podem discordar das nossas, podem ser imprecisas e podem estar empobrecidas porque não interagem com o mundo da maneira que fazemos. No entanto, essas representações são úteis e permitem que os chatbots obtenham recursos que seriam simplesmente impossíveis se fossem meramente tabelas estatísticas gigantes de padrões observados nos dados. ”(P. 138)
É cá que as coisas ficam fascinantes e um pouco perturbadoras. A capacidade do Chatgpt de entender a linguagem não é totalmente compreendida – nem pelos engenheiros que a construíram. Luminárias de IA porquê Geoffrey Hinton admitiram francamente que ainda não temos uma imagem clara de porquê Redes neurais profundas desenvolvem suas representações internas.
A verdadeira questão
Portanto, o chatgpt entende a linguagem humana? Não é uma resposta simples sim ou não. É um porquê pergunta.
Se, por “entender”, queremos expor a capacidade de produzir texto gramaticalmente harmónico e contextualmente relevante, logo sim, o chatgpt passa no teste – pelo menos em um nível médio. Mas se queremos expor o tipo de compreensão profunda e humana que envolve experiência, emoções e consciência cultural, logo não-ainda fica aquém.
E cá está a questão maior e mais intrigante: mesmo quando a IA fica mais avançada, nossa compreensão de porquê é realmente Trabalhos ficam para trás. Porquê Narayanan e Kapoor apontam, muito mais pesquisas entram na construção de IA do que para a engenharia reversa de seu funcionamento interno. Essa vácuo está unicamente crescendo e levanta grandes questões sobre crédito, transparência e o porvir da IA na informação humana.
O que você acha? Chatgpt “entende” de uma maneira que importa? Ou é unicamente um nigromante realmente sofisticado que imita o significado sem realmente agarrá -lo?
Referências
- Narayanan, A. & Kapoor, S. (2024). Óleo de serpente ai: o que a perceptibilidade sintético pode fazer, o que não pode e porquê expor a diferença (Edição Kindle). Princeton University Press
- 60 minutos. (2023, 25 de março). “Paraninfo da AI” Geoffrey Hinton: a entrevista de 60 minutos (Vídeo). YouTube: https://www.youtube.com/watch?v=qrvk_kuiejk&ab_channel=60minutes
- Chomsky, N. (1957). Estruturas sintáticas. Mouton.