De acordo com o relatório "Os 100 principais usos da IA generativa em 2025", as três utilizações mais relevantes este ano estão dentro da categoria de suporte pessoal e profissional, "sinal de que a inteligência artificial está a deixar de ser vista apenas como uma ferramenta de trabalho".
"A IA generativa tem sido usada como apoio terapêutico e companhia emocional", concluindo que as respostas geradas pelos modelos de IA já são indistinguíveis das escritas por humanos em matéria de intervenção terapêutica.
As ferramentas de IA como o ChatGPT, Claude ou Copilot têm sido usadas como assistentes pessoais, ajudando os utilizadores a refletir sobre os seus hábitos, prioridades e intenção, através de um movimento que vai além da produtividade.
"Determinar e definir os valores de uma pessoa, superar obstáculos e tomar medidas para o auto desenvolvimento, tudo isto agora aparece com frequência no objeto de estudo", lê-se no documento.
No ranking de 2024, estas ferramentas eram usadas, em primeiro lugar, para gerar ideias, em segundo lugar para terapia/companhia e em terceiro lugar para procurar informação específica.
Em 2025, a geração de ideias caiu para a sexta posição e a procura por determinadas informações aparece em 13.º lugar, o que, segundo o estudo, indica que a IA está a deixar de ser apenas funcional para passar a ser relacional.
"Estes três usos refletem os esforços de autorrealização, marcando uma mudança de aplicações técnicas para aplicações mais emocionais no último ano", concluiu o relatório.
Apesar disso, é ainda realçado que o avanço da IA generativa vem acompanhado de dúvidas e preocupações, por exemplo, na educação de crianças e jovens, pois a facilidade com que os modelos de linguagem conseguem resolver tarefas escolares levanta alertas sobre a formação intelectual e o desenvolvimento cognitivo na era da IA.
O relatório "Os 100 principais usos da IA generativa em 2025" foi publicado pela Harvard Business Review, tendo como objetivo mapear os usos mais populares da tecnologia.
Em declarações recentes à agência Lusa, o bastonário da Ordem dos Médicos, Carlos Cortes, afirmou que as ferramentas de IA não estão habilitadas a fazer diagnósticos, pois faltam "evidência científica robusta, mecanismos de validação rigorosos, e sobretudo, transparência algorítmica que permite aos médicos compreender e confiar nas decisões sugeridas".
A ausência de explicabilidade em muitos algoritmos dificulta a identificação de erros, esbate a fronteira da responsabilidade e ameaça a confiança dos doentes nos médicos e na medicina, rematou o responsável.
Leia Também: "O grande desafio" de IA pode fazer diferença na estabilidade política