Em uma decisão inédita nos Estados Unidos, o estado de Illinois tornou-se o primeiro a proibir oficialmente o uso de inteligência artificial (IA) como terapeuta, estabelecendo uma regulamentação específica para a aplicação dessas tecnologias na área da saúde mental.
O que diz a nova lei
A lei, batizada de Wellness and Oversight for Psychological Resources (WOPR), foi sancionada pelo governador JB Pritzker e impede que aplicativos ou serviços baseados em IA realizem decisões clínicas, como diagnósticos ou tratamentos psicológicos. Quem desrespeitar a regra poderá receber multa de até US$ 10 mil (cerca de R$ 54 mil na cotação atual).
A medida surge em um momento de crescimento no uso de chatbots e assistentes virtuais por pessoas em busca de suporte emocional ou companhia, o que levanta preocupações entre psicólogos e assistentes sociais. Profissionais defendem que apenas especialistas licenciados possam exercer funções clínicas, evitando riscos de danos causados por algoritmos que se passam por terapeutas sem a devida qualificação.
O que é permitido e o que está proibido
Apesar de barrar decisões terapêuticas, a lei não veta totalmente a presença da IA no setor. Ela permite que terapeutas humanos utilizem essas ferramentas para funções administrativas, como registro de anotações ou planejamento de atendimentos. Já aplicativos de bem-estar sem funções clínicas, como o Calm, continuam liberados.
Por outro lado, plataformas que se apresentam como substitutos de terapia, como o Ash Therapy, não poderão operar no estado e já passaram a bloquear o acesso para usuários de Illinois.
- Proíbe IA de realizar diagnósticos ou decisões terapêuticas;
- Multa de até US$ 10 mil para infratores;
- Uso de IA permitido apenas para tarefas administrativas em clínicas;
- Aplicativos de bem-estar sem função clínica continuam operando;
- Serviços de terapia baseados em IA, como o Ash Therapy, estão proibidos em Illinois.
Controvérsias e preocupações
A polêmica em torno do tema cresce com relatos de usuários que, após interações prolongadas com chatbots, desenvolveram delírios ou quadros de dependência emocional. A própria OpenAI já anunciou medidas para tentar mitigar riscos, como pausas obrigatórias para usuários que passam longos períodos no ChatGPT sem interrupções.
Esse cenário evidencia o desafio de integrar IA em áreas sensíveis como a saúde mental, exigindo um equilíbrio entre inovação tecnológica e segurança do usuário.
Leia também: Brasil está entre os 3 países que mais usam o ChatGPT no mundo e Demon Slayer: Infinity Castle Akaza Sairai supera One Piece Film Red.