domingo, maio 17, 2026
HomeSaúde física e emocionalUso de inteligências artificiais pode estimular relações parassociais – Jornal da USP

Uso de inteligências artificiais pode estimular relações parassociais – Jornal da USP


Ferramentas passam sensação de reciprocidade e compreensão aos usuários e podem criar dependência emocional

Por

Manter relações parassociais com IAs pode interferir na formação de laços com pessoas reais – Foto: rawpixel.com/Freepik
Logo da Rádio USP

Relações parassociais são conexões socioemocionais não recíprocas que, geralmente, acontecem entre pessoas comuns e figuras midiáticas, como artistas ou influenciadores, em que a pessoa acredita ser próxima e viver uma amizade com esse personagem. No entanto, recentemente, com a ampliação do uso de inteligências artificiais, algumas pessoas têm desenvolvido relações parassociais com essas ferramentas, o que pode ser mais complexo do que esse tipo de relação com figuras públicas, uma vez que as IAs passam a sensação de reciprocidade e compreensão aos usuários por meio de respostas e criação de vínculos.

O professor Euclides José de Mendonça Filho, do Departamento de Psicologia da Faculdade de Filosofia, Ciências e Letras de Ribeirão Preto (FFCLRP) da USP, explica que as pessoas mais afetadas por esse tipo de relação são, principalmente, pessoas com problemas relacionais ou com baixas habilidades sociais. Isso acontece porque “as IAs acabam sendo um ambiente mais seguro de aconselhamento e acolhimento das demandas da pessoa”. O professor diz ainda que “pessoas com depressão, dispostas a assumir a liderança na tomada de decisões sobre seu tratamento, podem se sentir um pouco acuadas ou desconfortáveis para falar com alguém próximo ou familiares”, e complementa afirmando que esses indivíduos podem achar “mais interessante se abrir com uma ferramenta on-line por conta da questão do anonimato, por se sentirem mais seguras”.

Por darem a sensação de segurança, Mendonça afirma que essas relações parassociais “podem, sim, gerar dependência emocional nas pessoas”. Outra questão mencionada por ele é a questão da reciprocidade, “em que a pessoa pode enxergar esse local como um espaço seguro, um ambiente de validação das suas emoções, que são expressadas pelos usuários das ferramentas, o que acaba reforçando o uso das IAs”. 

A imagem mostra um homem de óculos redondos, barba e cabelo preso, usando camisa xadrez azul e branca, posando em frente a uma árvore em ambiente externo com vegetação ao fundo.
Euclides José de Mendonça Filho – Foto: Currículo Lattes

Manter relações parassociais com inteligências artificiais, para o professor, “pode atrapalhar a formação de laços e vínculos com pessoas reais, porque elas promovem um senso duradouro de conexão e por meio do conteúdo regulado”. Mendonça explica ainda que “não podemos esquecer que as IAs seguem um algoritmo que nada mais é do que uma receita de bolo, que é generalista e visa ao engajamento do público para passar a ideia de unidade dessa interação homem-computador”. O professor diz ainda que “a IA não demonstra realmente se importar, ela foi projetada para simular uma conversa que pareça atenciosa”. Ele ainda ressalta como as inteligências artificiais funcionam: “Elas são como um espelho que reflete padrões de dados do que é uma mente que sente ou pensa, mas que não tem consciência, apenas é muito bom em prever o que dizer a partir do comando que é dado”.

Apesar disso, Mendonça explica que existem IAs específicas para fins avaliativos e para triagem de problemas mentais e sofrimento psíquico, que têm objetivos diferentes das IAs tradicionais. “Elas partem de prerrogativas diferentes e têm um controle e finalidade para melhor identificar e atender às demandas de um possível paciente”, diz o docente. Ele complementa que essas IAs “tendem a encaminhar os casos mais graves para profissionais de saúde, enquanto as generalistas visam à maior interação, mantendo o vínculo entre elas e as pessoas”.

IAs utilizam dados dos usuários

Evandro Eduardo Seron Ruiz – Foto: Currículo Lattes

Outro problema de manter relações parassociais entre pessoas e inteligências artificiais é a questão do compartilhamento de dados. De acordo com o professor Evandro Eduardo Seron Ruiz, do Departamento de Computação e Matemática da FFCLRP, “dependendo do tipo de relação parassocial os dados que são passados pelo usuário do serviço podem conter informações que podem ser interpretadas como informações sensíveis pela Lei Geral de Proteção de Dados, o que torna seu uso mais delicado e complexo do ponto de vista legal”. Segundo o docente, de acordo com a LGPD, “é esperado que as empresas usem os dados do usuário para finalidades legítimas e específicas da empresa”. Isso inclui o aprimoramento do serviço oferecido, melhora no atendimento e até mesmo ações de marketing, porém sempre de forma transparente.

Segundo Ruiz, os modelos de IAs generativas, como o ChatGPT e similares, “deixam claro o que pode acontecer com as informações disponibilizadas pelos usuários”. Isso fica explícito nos termos de uso dos sites e aplicativos. No entanto, de acordo com o docente, “nós sabemos que, na prática, as pessoas não leem o contrato estabelecido com as empresas — nem com os serviços de IA, nem com outros sites, que costumeiramente especificam como os dados são coletados e armazenados”. Além disso, os termos de uso explicam quais são os direitos dos usuários, como suas informações podem ser retificadas no site e quais são as medidas adotadas para proteger essas informações, conta o professor.

A coleta de dados dos usuários, segundo o professor, envolve o armazenamento, o uso desses dados e seu descarte — esse processo é conhecido como tratamento de dados e deve ser realizado mediante o consentimento do titular, que demonstra que seus dados foram coletados para finalidades legítimas. O uso dos dados para finalidades que não sejam legítimas não é considerado crime, segundo Ruiz, mas pode ser considerado uma infração que pode gerar sanções administrativas e civis, além de multa, advertência e bloqueio do serviço pela Agência Nacional de Proteção de Dados (ANPD), que zela pelo cumprimento da LGPD.

Cíntia Rosa Pereira de Lima – Foto: IEA-USP

Porém, a aplicação de sanções ou a responsabilização de pessoas pelo uso indevido dos dados dos usuários pode ser complexa, como explica a professora Cíntia Rosa Pereira de Lima da Faculdade de Direito de Ribeirão Preto (FDRP) da USP. Ela diz que “o problema da inteligência artificial é achar o causador do dano, porque o sistema de IA não tem personalidade jurídica”. Dessa forma, a responsabilização por possíveis crimes recai sobre os desenvolvedores ou administradores dessas ferramentas.

Por isso, segundo a professora, “as empresas precisam se atentar ao dever legal de informar, de forma clara e de fácil acesso, sobre como elas obtêm informações pessoais e o que é feito com elas”.

*Estagiária sob supervisão de Ferraz Jr e Gabriel Soares



Fonte