Quando ferramentas de lucidez sintético uma vez que o ChatGPT foram introduzidas pela primeira vez para uso público em 2022, Gillian Hayes, vice -reitor para pessoal acadêmico da Universidade da Califórnia, Irvine, lembra uma vez que as pessoas estavam montando regras em torno da IA sem uma boa compreensão do que realmente era ou uma vez que seria usado.
O momento parecia semelhante às revoluções industriais ou agrícolas, diz Hayes.
“As pessoas estavam unicamente tentando tomar decisões com o que puderam colocar as mãos.”
Vendo a urgência de dados mais claros e mais claros, Hayes e sua colega Candice L. Odgers, professora de ciência psicológica e informática da UC Irvine, lançaram uma pesquisa pátrio para investigar o uso de IA entre adolescentes, pais e educadores. Seu objetivo era coletar um largo conjunto de dados que pudessem ser usados para investigar continuamente uma vez que os usos e atitudes em relação à mudança de IA ao longo do tempo.
Os pesquisadores fizeram uma parceria com a Foundry10, uma organização de pesquisa educacional, para pesquisar 1.510 adolescentes entre 9 e 17, além de 2.826 pais de alunos do ensino fundamental e médio nos Estados Unidos. Eles portanto administraram uma série de grupos focais, que incluíam pais, alunos e educadores, para entender melhor o que os participantes sabiam sobre a IA, o que os preocupava e uma vez que isso afetou suas vidas diárias. Os pesquisadores terminaram de coletar dados no outono de 2024 e lançado Algumas de suas descobertas no início deste ano.
Os resultados foram uma surpresa para Hayes e sua equipe. Eles descobriram que muitos adolescentes do estudo estavam cientes das preocupações e perigos em torno da IA, mas não tinham diretrizes para usá -lo adequadamente. Sem essa orientação, a IA pode ser confusa e complexa, dizem os pesquisadores, e podem impedir que os adolescentes e os adultos usem a tecnologia de forma moral e produtiva.
Bússolas morais
Hayes ficou mormente surpreso com o quão pouco os adolescentes da pesquisa usaram a IA e a maneira uma vez que a usavam. Exclusivamente murado de 7 % deles usavam a IA diariamente, e a maioria o usou através de mecanismos de pesquisa em vez de chatbots.
Muitos adolescentes da pesquisa também tiveram uma “possante bússola moral”, disse Hayes, e estavam enfrentando os dilemas éticos que vêm com o uso da IA, mormente na sala de lição.
Hayes lembra de um participante juvenil que publicou um livro que usou uma imagem gerada pela IA na toga. O livro também incluiu qualquer teor gerado pela IA, mas era principalmente um trabalho original. Depois, a mãe do participante, que os ajudou a publicar o livro, discutiu o uso da IA com o aluno. Não há problema em usar a IA nesse cenário, disse a mãe, mas eles não devem usá -lo para grafar tarefas escolares.
Os jovens geralmente não estão tentando trapacear, simplesmente não sabem necessariamente uma vez que se parecem com a IA, diz Hayes. Por exemplo, alguns se perguntaram por que eles tinham permissão para revisar um colega de classe, mas não podiam usar a gramática, uma utensílio de IA que analisa ensaios para erros gramaticais.
“Para a grande maioria dos (adolescentes), eles sabem que a trapaça é ruim”, diz Hayes. “Eles não querem ser ruins, não estão tentando se safar de um tanto, mas o que está trapaceando não é muito simples e qual é a natividade e o que não é. Acho que muitos professores e pais também não sabem.”
Os adolescentes da pesquisa também estavam preocupados com a forma uma vez que o uso da IA poderia afetar sua capacidade de desenvolver habilidades de pensamento crítico, diz Jennifer Rubin, pesquisadora sênior da Foundry10 que ajudou a liderar o estudo. Eles reconheceram que a IA era uma tecnologia que eles provavelmente precisariam ao longo de suas vidas, mas também que usá -la irresponsável poderia impedir sua ensino e carreiras, diz ela.
“É uma grande preocupação que a IA generativa afete o desenvolvimento da escola em um momento realmente crítico para o desenvolvimento dos jovens”, acrescenta Rubin. “E eles mesmos também reconhecem isso.”
Isenção uma boa surpresa
Os resultados da pesquisa não demonstraram lacunas de capital entre os usuários de IA, que foram outra surpresa para Hayes e sua equipe.
Os especialistas geralmente esperam que novas tecnologias fechem lacunas de desempenho e melhorem o chegada para os estudantes nas comunidades rurais e as de famílias de baixa renda ou em outros grupos marginalizados, diz Hayes. Normalmente, porém, faz o oposto.
Mas neste estudo, parecia possuir poucas disparidades sociais. Embora seja difícil proferir se isso foi restrito dos participantes que concluíram a pesquisa, Hayes suspeita que isso possa ter a ver com a novidade da IA.
Geralmente, os pais que frequentavam a faculdade ou são mais ricos ensinam seus filhos sobre novas tecnologias e uma vez que usá -la, diz Hayes. Com a IA, porém, ninguém entende completamente uma vez que funciona, para que os pais não possam passar esse conhecimento.
“Em um mundo gen-AI, pode ser que ninguém possa ainda não ter andaime, por isso não achamos que haja nenhum motivo para crer que sua pessoa média de renda média ou subida tem as habilidades para realmente se enquadrar em seu fruto nesse espaço”, diz Hayes. “Pode ser que todos estejam trabalhando com capacidade reduzida”.
Ao longo do estudo, alguns pais não pareciam entender completamente as capacidades da IA, acrescenta Rubin. Alguns acreditavam que era simplesmente um mecanismo de procura, enquanto outros não perceberam que poderia produzir uma saída falsa.
As opiniões também diferiram sobre uma vez que discutir a IA com seus filhos. Alguns queriam abraçar completamente a tecnologia, enquanto outros eram favoráveis a prosseguir com cautela. Alguns pensavam que os jovens deveriam evitar a IA completamente.
“Os pais não estão (todos) entrando com uma mentalidade semelhante”, diz Rubin. “Realmente dependia de sua própria experiência pessoal com a IA e de uma vez que eles veem moral e responsabilidade em relação ao ataque (da tecnologia)”.
Estabelecendo regras
A maioria dos pais do estudo concordou que os distritos escolares deveriam definir políticas claras sobre o uso adequado da IA, diz Rubin. Embora isso possa ser difícil, é uma das melhores maneiras de os alunos entenderem uma vez que a tecnologia pode ser usada com segurança, diz ela.
Rubin apontou para os distritos que começaram a implementar um sistema de cores para a IA usa. Um uso virente pode indicar trabalhar com IA para debater ou desenvolver idéias para um experimento. Os usos amarelos podem ser mais uma superfície cinzenta, uma vez que solicitar um guia passo a passo para resolver um problema de matemática. Um uso vermelho seria inapropriado ou antiético, uma vez que solicitar a Chatgpt para grafar um experimento com base em um prompt atribuído.
Muitos distritos também facilitaram as sessões de escuta com pais e famílias para ajudá -los a velejar discutindo a IA com seus filhos.
“É uma tecnologia bastante novidade; há muitos mistérios e perguntas em torno de famílias que não usam muito a utensílio”, diz Rubin. “Eles só querem uma maneira de seguir algumas orientações fornecidas pelos educadores”.
Karl Rectanus, presidente do Juízo da Indústria da AI de Edsafe, que promove o uso seguro da IA, incentiva educadores e organizações de ensino a usar a estrutura segura ao abordar perguntas sobre a IA. A estrutura pergunta se o uso é seguro, responsável, justo e eficiente, diz Rectanus, e pode ser adotado por grandes organizações e professores em salas de lição individuais.
Os professores têm muitas responsabilidades, portanto, “pedindo a eles que também sejam especialistas em uma tecnologia que, francamente, até os desenvolvedores não entendem completamente é provavelmente uma ponte longe demais”, diz Rectanus. Fornecer perguntas diretas a serem consideradas pode “ajudar as pessoas a prosseguir quando não souberem o que fazer”.
Em vez de proibir a IA, os educadores precisam encontrar maneiras de ensinar aos alunos maneiras seguras e eficazes de usá -la, diz Hayes. Caso contrário, os alunos não estarão preparados para isso quando eles ingressarem na força de trabalho.
Na UC Irvine, por exemplo, um membro do corpo docente atribui exames orais a estudantes de ciência da computação. Os alunos entregam o código que escreveram e levam cinco minutos para explicar uma vez que funciona. Os alunos ainda podem usar a IA para grafar o código – uma vez que os desenvolvedores de software profissional costumam fazer -, mas devem entender uma vez que a tecnologia o escreveu e uma vez que funciona, diz Hayes.
“Quero que todos nós, idosos, sejam adaptáveis e realmente pensem ‘o que realmente é o meu resultado de tirocínio cá e uma vez que posso ensiná -lo e avaliá -lo, mesmo em um mundo em que há IA generativa em todos os lugares?’”, Diz Hayes, “porque não acho que isso vai a lugar nenhum.”