Vários anos em seguida o lançamento do ChatGPT, que levantou preocupações éticas para a ensino, as escolas ainda estão lutando com porquê adotar a perceptibilidade sintético.
O lote de ordens executivas da semana passada do governo Trump incluiu uma que avançou “liderança de IA”.
A ordem da Lar Branca enfatizou seu libido de usar a IA para Aumente a aprendizagem em todo o paísabrindo quantia discricionário de licença federalista para os educadores de treinamento e também sinalizando um interesse federalista em ensinar a tecnologia nas escolas do ensino fundamental e médio.
Mas mesmo com uma novidade ordem executiva em mãos, os interessados em incorporar a IA nas escolas procurarão os estados – não o governo federalista – para liderança sobre porquê conseguir isso.
Portanto, os estados estão se destacando para as escolas? Segundo alguns, o que eles deixam de fora de suas orientações de política de IA fala muito sobre suas prioridades.
De volta aos estados
Apesar da ênfase do presidente Trump na “liderança” em sua ordem executiva, o governo federalista realmente colocou os estados no banco do motorista.
Depois de assumir o missão, o governo Trump rescindiu a ordem federalista da era Biden sobre perceptibilidade sintético que tinha destacou os danos potenciais da tecnologia incluindo discriminação, desinformação e ameaças à segurança vernáculo. Ele também encerrou o Escritório de Tecnologia Educacional, uma importante manancial federalista de orientação para as escolas. E prejudicou o Escritório de Direitos Civis, outra filial principal para ajudar as escolas a velejar no uso da IA.
Mesmo sob o projecto do governo Biden, os estados teriam que mourejar com as tentativas das escolas de ensinar e utilizar a IA, diz Reg Leichty, fundador e parceiro da Recta Precisão + Consultores de Política. Agora, com a novidade direção federalista, isso é ainda mais verdadeiro.
Muitos estados já entraram nesse papel.
Em março, Nevada publicou escolas de aconselhamento de orientação no estado sobre porquê incorporar a IA com responsabilidade. Ingressou na lista de Mais da metade dos estados – 28, incluindo o território de Porto Rico – que lançaram esse documento.
Eles são voluntários, mas oferecem uma direção sátira das escolas sobre porquê velejar em armadilhas nítidas que a IA levanta e para prometer que a tecnologia seja usada de maneira eficiente, dizem especialistas.
As orientações também enviam um sinal de que a IA é importante para as escolas, diz Pat Yongpradit, que lidera o Teachai, uma coalizão de organizações consultivas, agências governamentais estaduais e globais. Organização da Yongpradit criou um kit de ferramentas Ele diz que foi usado por pelo menos 20 estados na elaboração de suas diretrizes para as escolas.
(Um dos grupos do Comitê Diretor de Teachai é a ISTE. Edsurge é uma redação independente que compartilha uma organização de pais com a ISTE. Saiba mais sobre a moral e políticas de Edsurge cá e apoiadores cá.)
Portanto, o que há nas orientações?
Um recente Revisão do Meio de Democracia e Tecnologia descobriram que essas orientações estatais concordam amplamente sobre os benefícios da IA para a ensino. Em privado, eles tendem a enfatizar a utilidade da IA para aumentar o aprendizagem pessoal e tornar as tarefas administrativas onerosas mais gerenciáveis para os educadores.
Os documentos também concordam com os perigos da tecnologia, mormente ameaçando a privacidade, enfraquecendo as habilidades de pensamento crítico para os alunos e perpetuando o viés. Outrossim, eles enfatizam a urgência de supervisão humana dessas tecnologias emergentes e observam que o software de detecção para essas ferramentas é não confiável.
Pelo menos 11 desses documentos também abordam a promessa de IA em tornar a ensino mais atingível para estudantes com deficiência e para alunos de inglês, segundo a organização sem fins lucrativos.
O maior argumento é que os estados vermelhos e azuis emitiram esses documentos de orientação, diz Maddy Dwyer, exegeta de políticas do Meio de Democracia e Tecnologia.
É um vasqueiro flash de negócio bipartidário.
“Eu acho que isso é super significativo, porque não é somente um estado fazendo esse trabalho”, diz Dwyer, acrescentando que sugere um reconhecimento abrangente dos problemas de preconceito, privacidade, danos e não confiabilidade dos resultados da IA nos estados. É “animador”, diz ela.
Mas, embora houvesse um cume nível de negócio entre os documentos de orientação do Estado, o CDT argumentou que os estados têm – com algumas exceções – os principais tópicos perdidos na IA, principalmente porquê ajudar as escolas a velejar DeepFakes e porquê levar as comunidades para conversas em torno da tecnologia.
Yongpradit, de Teachai, discorda que eles foram perdidos.
“Há riscos de bilhão” de IA aparecendo o tempo todo, diz ele, muitos deles difíceis de desenredar. No entanto, alguns mostram engajamento robusto da comunidade e pelo menos um aborda os deepfakes, diz ele.
Mas alguns especialistas percebem problemas maiores.
O silêncio fala muito?
Encarregar nos estados para produzir suas próprias regras sobre essa tecnologia emergente aumenta a possibilidade de ter regras diferentes nesses estados, mesmo que pareçam concordar amplamente.
Algumas empresas preferem ser regulamentadas por um conjunto uniforme de regras, em vez de ter que mourejar com leis diferentes entre os estados, diz Leichty, da Lei Precisa + Consultores de Política. Mas, na exiguidade de regras federais fixas, é valioso ter esses documentos, diz ele.
Mas para alguns observadores, o paisagem mais preocupante das diretrizes estaduais é o que é não neles.
É verdade que esses documentos estaduais concordam com alguns dos problemas básicos da IA, diz Clarence Okoh, jurisperito sênior do Meio de Privacidade e Tecnologia do Meio de Recta da Universidade de Georgetown.
Mas, ele acrescenta, quando você realmente perfura os detalhes, Nenhum dos estados aborda a vigilância policial Nas escolas nessas orientações de IA.
Em todo o país, a polícia usa tecnologia nas escolas – porquê reconhecimento facial Ferramentas – para rastrear e disciplinar os alunos. A vigilância é generalizada. Por exemplo, uma investigação de senadores democratas em serviços de monitoramento de estudantes levou a um documento do Goguardian, uma dessas empresas, afirmando que Aproximadamente 7.000 escolas em todo o país estavam usando produtos Somente a partir dessa empresa a partir de 2021. Essas práticas exacerbam a linha-da-prisão e aceleram a desigualdade, expondo estudantes e famílias a um maior contato com as autoridades policiais e de imigração, Okoh acredita.
Estados introduziram legislação que Braaches ai vigilância. Mas, aos olhos de Okoh, essas leis fazem pouco para impedir violações de direitos, geralmente isentando a polícia de restrições. De roupa, ele aponta para somente um projeto de lei específico nesta sessão legislativa, em Novidade Yorkisso proibiria tecnologias de vigilância biométrica nas escolas.
Talvez a orientação da IA do estado mais próxima de levantar a questão seja a de Alabama, que observa os riscos apresentados pela tecnologia de reconhecimento facial nas escolas, mas não discutem diretamente o policiamento, segundo Dwyer, do Meio de Democracia e Tecnologia.
Por que os estados enfatizariam isso em suas orientações? É provável que os legisladores estaduais estejam focados somente na IA generativa ao pensar na tecnologia e não estão avaliando preocupações com a tecnologia de vigilância, especula Okoh, do meio de privacidade e tecnologia.
Com um contexto federalista em mudança, isso pode ser significativo.
Durante a última gestão, houve alguma tentativa de regular essa tendência de policiar estudantes, de negócio com Okoh. Por exemplo, o Departamento de Justiça veio a um assentamento Com o região escolar do condado de Pasco, na Flórida, afirma que o região discriminou, usando um policiamento preditivo programa que tinha aproximação a Registros dos alunoscontra estudantes com deficiência.
Mas agora, as agências de direitos civis estão menos preparadas para continuar esse trabalho.
Na semana passada, a Lar Branca também divulgou uma ordem executiva para “Restalar políticas de disciplina escolar“Direcionando o que Trump rotula porquê” políticas racialmente preferenciais “. Esses foram feitos para combater o que observadores porquê Okoh entendem porquê punitivamente estudantes negros e hispânicos excessivos.
Combinado com a novidade ênfase no Escritório de Direitos Civis, que investiga esses assuntos, a ordem executiva da disciplina torna mais difícil desafiar os usos da tecnologia de IA para disciplina em estados que são “hostis” aos direitos civis, diz Okoh.
“A subida da vigilância da IA na ensino pública é um dos desafios mais urgentes dos direitos civis e humanos que enfrentam as escolas públicas hoje”, disse Okoh ao Edsurge, acrescentando: “Infelizmente, a orientação da IA do Estado ignora amplamente essa crise, porque os estados foram (estados) que se distraíam de que a subestimação.