O subgrupo Interações entre Humanos e Agentes de Inteligência Artificial no Ensino Superior (IHAIAES), do GT Governança Adaptativa e Colaborativa, é composto dos autores deste artigo e tem como objetivo propor indicadores que podem servir como base para Instituições de Ensino Superior (IES) que ainda não definiram suas diretrizes visando ao uso ético, responsável e transparente de inteligência artificial em seus processos.
Nesse sentido, o IHAIAES também pretende oferecer contribuições a um debate emergente e de importância cada vez mais significativa no meio acadêmico, feito por meio de publicações de caráter orientativo, destacando-se três exemplos recentes: o Guia para a IA generativa na educação e na pesquisa; as Diretrizes para o uso ético e responsável da inteligência artificial generativa: um guia prático para pesquisadores, de autoria de Rafael Cardoso Sampaio, Marcelo Sabbatini e Ricardo Limongi; e IA e Ensino Público Superior no Brasil: Recomendações para políticas institucionais de governança.
A gama de riscos sistêmicos inerentes à aplicação, sem limites claros, desta Tecnologia de Propósito Geral é bastante ampla: insegurança pedagógica, vieses algorítmicos, violação de direitos autorais, desrespeito à privacidade de dados pessoais, erosão da integridade acadêmica, entre outros. Em um contexto de uso disseminado, como apontam levantamentos feitos pela Associação Brasileira de Mantenedoras de Ensino Superior em parceria com a Educa Insights e pela Chegg.org, tais ameaças são, potencialmente, ainda mais graves: enquanto a primeira pesquisa apontou que 71% dos alunos de graduação não apenas já conheciam a tecnologia, como já a tinham integrado em suas rotinas, a segunda constatou que 84% dos universitários brasileiros utilizam ferramentas de IA generativa em seus estudos. Outra questão relevante: o crescimento expressivo do uso de IA em artigos científicos não foi sinalizado nos últimos três anos, como mostrou uma reportagem do Núcleo Jornalismo.
Há cerca de um ano, a movimentação em torno da ideia de se promover um esforço de autorregulação do uso de IA na esfera universitária parecia promissora, como registrou à época uma matéria da revista Pesquisa Fapesp. Contudo, uma breve curadoria atualizada é suficiente para constatar que persiste um cenário marcado pela inércia regulatória, já que poucas IES definiram até agora seus regramentos, confirmando uma tendência reativa e cautelosa do meio acadêmico brasileiro no que concerne à regulação de inovações.
Um levantamento envolvendo 158 instituições brasileiras, entre públicas (federais e estaduais), particulares e confessionais, atesta que, mesmo quase três anos após o lançamento do ChatGPT, somente pouco mais de 4% das IES pesquisadas já se posicionaram oficialmente sobre o uso de IA nos processos acadêmicos de ensino, aprendizagem, pesquisa e desenvolvimento. Entre as públicas, as universidades federais de Minas Gerais (UFMG, junho de 2024), de Goiás (UFG, agosto de 2024), da Bahia (UFBA, abril de 2025) e do Delta do Parnaíba, no estado do Piauí (UFDPar, abril de 2025), além da Universidade Estadual Paulista (Unesp, abril de 2025), determinaram os seus parâmetros até o momento de produção deste artigo. Na esfera privada, foram mapeados documentos oficiais emitidos pelo Centro Universitário do Serviço Nacional de Aprendizagem Industrial – Campus Integrado de Manufatura e Tecnologia (Senai Cimatec, fevereiro de 2024), de Salvador (BA); e pela Pontifícia Universidade Católica do Paraná (PUC-PR, agosto de 2024).
Estas diretrizes podem ser divididas em três tipos:
- Guias (Senai Cimatec, UFBA e UFG): de natureza orientativa, tendem a ser mantidos de forma permanente pelas IES, sofrendo apenas modificações pontuais ao longo do tempo, como a inserção de novos tópicos;
- Recomendações (UFMG): consolidam um conjunto específico de entendimentos obtidos após discussões promovidas por um período determinado entre os membros de uma comunidade acadêmica, com vistas à consolidação futura na forma de uma política institucional;
- Resoluções (PUC-PR, UFDPar e Unesp): de caráter normativo, determinam os dispositivos de autorregulação, porém estão sujeitas a uma substituição parcial ou integral por versões posteriores.
Uma análise de conteúdo realizada com o auxílio da ferramenta NotebookLM, do Google, aponta seis princípios fundamentais defendidos pelos regramentos:
a) Centralidade ou Soberania Humana;
b) Transparência;
c) Responsabilidade e Autoria Humana;
d) Justiça, Equidade e Não Discriminação;
e) Privacidade e Segurança dos Dados; e
f) Integridade Acadêmica.
Objeto de estudo do GPGAIA, a autonomia de agentes de IA e seus riscos implícitos encontram-se, nas diretrizes, submetidos à órbita da supervisão humana em termos de controle, sendo vedada a concessão aos agentes tanto de coautoria quanto de responsabilização em processos decisórios por quaisquer produções geradas.
Cabe salientar ainda a instalação, em algumas IES, de comissões ou comitês específicos de autorregulação de inteligência artificial, o que demonstra uma emancipação considerável desta tecnologia em suas estruturas organizacionais: enquanto a PUC-PR criou um Observatório de IA na Educação Superior, a UFDPar instituiu um Comitê de Ética em Inteligência Artificial e a UFMG, uma Comissão Permanente de IA.
De forma geral, o letramento da comunidade acadêmica é defendido nas diretrizes como um dos pilares para a garantia de uso consciente e, sobretudo, crítico da tecnologia em atividades administrativas e também de ensino, pesquisa e extensão. Nesse sentido, a Unesp se notabiliza por ter iniciado em agosto deste ano um programa de formação ampla em IA voltado para a sua própria comunidade. Logo na primeira edição, que irá até dezembro, a iniciativa envolve cerca de 500 participantes, entre docentes, estudantes de graduação e de pós-graduação, além de servidores técnico-administrativos.
Cabe assinalar também o repositório mantido pelo grupo de pesquisa Understanding Artificial Intelligence (UAI), também vinculado ao IEA-USP, que registra, até o momento, 80 guidelines publicadas por IES do Brasil e de outros países — Austrália, Bélgica, Canadá, Egito, Emirados Árabes Unidos, EUA, Hong Kong, Peru, Reino Unido e Singapura. O mapeamento é amplamente dominado pelas IES estadunidenses (65, o que representa 81,25% do total), sendo que a maioria (37, o equivalente a 56,92%) respondeu de forma imediata, já em 2023, à ascensão vertiginosa da IA generativa.
Os números deverão ser outros até o final de 2025, sendo possível projetar para o próximo ano um fortalecimento dessa tendência de consolidação de novos regramentos. Porém, o fator mais importante a ser verificado por estudos futuros será a resiliência dos princípios fundamentais contidos nessas diretrizes e também a adaptabilidade diante das inevitáveis transformações às quais a tecnologia ainda deverá ser submetida.
O horizonte nacional relacionado ao tema passou a ter uma nova perspectiva com a já anunciada implementação, a partir de 2026, de um marco regulatório para o uso de IA em todos os ciclos pedagógicos, da Educação Básica ao Ensino Superior. Está prevista para o mês de setembro a abertura, por parte do Conselho Nacional de Educação (CNE), de uma consulta pública sobre a futura resolução a ser publicada pelo órgão.
Recomendações e perspectivas
Diante da tarefa de construir estruturas de governança, simultaneamente robustas e adaptáveis, para lidar com as novas etapas de consolidação da IA como sistema sociotécnico de grande complexidade, cabe compreender que o conjunto das IES ainda se articula para prever impactos nas áreas distintas de ensino, pesquisa e extensão.
Além de responder objetivamente à legislação já vigente relacionada à autoria, ao uso de dados e à privacidade, entre outros pontos, trata-se também de prever os resultados na produção científica, na preparação profissional e no relacionamento com a sociedade.
Enfrentar essa transformação não passa pela proibição, uma medida que se mostra ineficaz, alienante e que ignora o potencial da tecnologia. O caminho é a regulação com foco ético e pedagógico. As IES precisam urgentemente passar da improvisação para uma governança ativa e estruturada. Isso exige a criação de comitês multidisciplinares, com a participação de docentes, discentes, técnicos e especialistas, para elaborar políticas institucionais claras e aplicáveis.
Essas políticas devem, primeiramente, definir o que constitui uso legítimo e o que é fraude, estabelecendo diretrizes de transparência para que estudantes e pesquisadores saibam como declarar o uso de IA em seus trabalhos. Em segundo lugar, precisam criar fluxos claros para lidar com incidentes e suspeitas de mau uso, oferecendo amparo jurídico e técnico aos docentes. É fundamental que a responsabilidade não recaia inteiramente sobre o professor. As instituições devem prover suporte, como o acesso a ferramentas validadas, contas institucionais que garantam a privacidade dos dados e programas contínuos de letramento em IA para toda a comunidade acadêmica.
Paralelamente, é importante adaptar os métodos avaliativos para que valorizem as habilidades que a IA não consegue replicar: o pensamento crítico, a criatividade, a argumentação original, a aplicação contextual do conhecimento e a reflexão ética. As IES brasileiras devem agir com a urgência que o cenário impõe. Somente por meio de um debate aberto e da construção de uma governança robusta, participativa e transparente, será possível transformar a IA, fazendo com que esta deixe de ser uma fonte de incertezas, convertendo-a em uma poderosa aliada para a produção de um conhecimento mais rico, ético e soberano.
* Jonas Gonçalves, Mirian Meliani e Rafael Sampaio, pesquisadores do Instituto de Estudos Avançados (IEA) da USP
________________
(As opiniões expressas nos artigos publicados no Jornal da USP são de inteira responsabilidade de seus autores e não refletem opiniões do veículo nem posições institucionais da Universidade de São Paulo. Acesse aqui nossos parâmetros editoriais para artigos de opinião.)


