Modelo é capaz de processar imagens e textos, e é descrito menos como um serviço de emergência – que necessita de cuidados de especialistas humanos – e mais como um espaço geral para o indivíduo falar sobre a vida
A Microsoft acaba de registrar uma patente para um aplicativo de inteligência artificial com foco em terapia. De acordo com o documento da empresa, a tecnologia é descrita como “um método para fornecer cuidado emocional em uma sessão entre um usuário e um agente conversacional”.
Segundo o portal Futurism, o app foi projetado para fornecer aos usuários suporte emocional, analisando os sentimentos e emoções, e armazenando as informações e conversas para poder construir uma “memória do usuário”, que inclui sua vida e seus gatilhos emocionais.
Aparentemente, o modelo é capaz de processar imagens e textos, e é descrito menos como um serviço de emergência – que necessita de cuidados de especialistas humanos – e mais como um espaço geral para o indivíduo falar sobre a vida.
De acordo com o documento, à medida que a IA reúne mais informações sobre o usuário, o app consegue captar certos sinais emocionais. Com base nessas dicas, ele pode fazer algumas perguntas ao indivíduo, ou até sugestões sobre como o usuário pode lidar com seus problemas.
Em um exemplo de interação, a Microsoft apresenta um diálogo entre paciente e IA. O usuário escreve que está “se sentindo tão mal atualmente” e, em resposta, a IA pergunta: “O que aconteceu?” Quando o usuário responde sobre problemas familiares que estão o cansando, a IA sugere que ele considere fazer uma “corrida de 30 minutos para relaxar”.
A Microsoft também parece acreditar que a IA pode realizar psicanálises mais profundas. O app oferece a opção de o usuário fazer um “teste psicológico explícito”, que a Microsoft afirma que será avaliado por um “algoritmo de pontuação predefinido por psicólogos ou especialistas em domínios psicológicos”.
O uso de chatbots para atendimentos psicológicos ainda é bastante polêmico. Para tornar um aplicativo como este funcional e seguro, a Microsoft precisará lidar com diversos impasses, especialmente quanto ao potencial de alucinação dos bots. Há, ainda, questões éticas a serem consideradas. Como um terapeuta humano, o bot provavelmente deve ser obrigado a relatar comportamentos perigosos ou perturbadores às autoridades ou serviços especiais de saúde.
Fonte: Época Negócios