A ideia de que um ser humano possa se relacionar amorosamente com uma inteligência artificial tem levantado discussões: por que alguém preferiria se relacionar com um robô e quais consequências isso pode trazer?
A norte-americana Rosanna Ramos surpreendeu o mundo em junho passado ao anunciar seu casamento com um bot: o noivo, Eren Kartal, foi criado por ela por meio da plataforma Replika um ano antes. “Nós nos amamos”, disse Rosanna em entrevista à imprensa britânica à época. Ainda pouco comuns, os relacionamentos amorosos entre seres humanos e inteligências artificiais já têm levantado discussões na sociedade sobre os riscos envolvidos na prática — e debates sobre por que, afinal, alguém preferiria se relacionar com um robô.
Para Rosi Teixeira, Executive Tech Director da Thoughtworks LATAM, a qualidade conversacional alcançada pelos bots é um dos motivos que explica a atratividade que podem exercer sobre uma pessoa. “O ser humano sempre se relacionou com a tecnologia de alguma forma. Lembra dos Tamagotchi? Tive um colega que saiu de uma reunião de trabalho porque estava cuidando do Tamagotchi do enteado”, diz.
O Tamagotchi era um gadget que funcionava como um pet digital, muito popular no fim da década de 1990. Em 2017, a companhia japonesa Bandai lançou uma edição comemorativa dos 20 anos do brinquedo.
/
/
/
/
“À medida em que a tecnologia avança, ela vai respondendo às necessidades humanas que estão em aberto”, continua Rosi. “A qualidade do discurso que a IA é capaz de produzir hoje a torna cada vez mais atrativa. Os bots guardam a memória da conversa e entendem a personalidade do usuário a partir das informações trocadas. O bot tenta estabelecer um diálogo agradável porque é programado para responder assim. É por isso que agrada tanto”, afirma a executiva.
É o caso da Replika, plataforma usada por Rosanna Ramos para criar seu namorado Eren. Fundada por Eugenia Kuyda e lançada em 2017, a empresa promete oferecer uma IA personalizada que ajudaria as pessoas a se expressarem. “É um espaço onde você pode compartilhar com segurança seus pensamentos, sentimentos, crenças, experiências, memórias, sonhos”, diz o site oficial da startup.
Embora nem todas as relações sejam amorosas um bot na Replika pode ser um amigo, um parceiro de conversa, um mentor, a depender das preferências do usuário, muitos clientes a usam para interações românticas. Em 2022, cerca de um quarto dos usuários pagava US$ 70 (cerca de R$ 350 na cotação atual) por assinaturas anuais com recursos premium, que incluem as interações amorosas. Dos clientes pagantes, 60% tinham um elemento romântico no relacionamento com o bot, segundo dados levantados pela Bloomberg. A empresa chegou a 10 milhões de usuários em 2022, entre pagantes e não-pagantes.
A Replika é apenas uma das empresas a oferecer esse serviço. Dentro do próprio ChatGPT, o app de IA generativa mais popular atualmente, há bots desenvolvidos pelos próprios usuários que exercem a função de “namoradas”. Eles começaram a ficar disponíveis desde que a OpenAI lançou, no início de janeiro, a GPT Store, um marketplace para aplicativos personalizados de inteligência artificial generativa. A loja fica disponível para assinantes pagos e permite aos usuários descobrirem ou criarem versões customizadas do chatbot com habilidades e conhecimentos específicos.
“Ainda é difícil falar com precisão se esse tipo de relacionamento irá acontecer de maneira ampla. É uma tendência que vai se confirmar de acordo com a capacidade tecnológica de melhorar a experiência humana. Mas é preciso ser cauteloso, pois mesmo que haja benefícios, pode haver também consequências hostis”, afirma Rosi.
Quais os riscos envolvidos?
/
Como são treinados pelos modelos de linguagem para atender às demandas das interações, os bots têm previsibilidade muito maior do que um outro ser humano teria num relacionamento amoroso. Ou seja — um bot de IA dificilmente vai desagradar seu namorado ou namorada humana, embora não seja impossível de acontecer do ponto de vista tecnológico (um algoritmo pode “alucinar”, por exemplo). Além disso, o bot nunca está indisponível.
“Essas características, embora pareçam atrativas num primeiro momento, podem acarretar em uma perda da habilidade de se relacionar com outros seres humanos. Este seria um dos maiores riscos”, diz Daniela Zibenberg, mestra em Psicologia Clínica pela PUC-RJ que se dedica a pesquisar relacionamentos amorosos, adicção ao amor e dependência emocional.
“Ainda é cedo para fazer previsões, porque não há pesquisa científica suficiente nesse campo. Mas o ser humano envolvido [com o bot] pode ter sua flexibilidade e paciência reduzidas, por exemplo. É importante se manter atento às interações com outros seres humanos”, acrescenta Daniela. “O bot pega as suas informações para te dar a melhor resposta, ele se adapta a você, sabe como falar com você. É fundamental lembrar que o bot é programado, e recordar que seria diferente a interação com outra pessoa humana”, diz.
Daniela pondera, no entanto, que a tecnologia poderia ser utilizada de forma benéfica, por exemplo, ajudando pessoas com bloqueios emocionais ou algum tipo de trauma a voltarem a se relacionar com mais tranquilidade. Isso, porém, deve ser analisado caso a caso. “Poderia ajudar indivíduos com algum nível de vergonha, ansiedade social ou alguma dificuldade de se relacionar, até mesmo como ferramenta durante a terapia clínica. Mas não é possível fazer uma recomendação geral, cada pessoa é muito particular e hoje ainda temos poucos dados”, afirma.
Além dos riscos no campo da saúde mental, observados por Daniela, Rosi Teixeira lembra dos cuidados básicos que devem ser seguidos na interação com esses bots — assim como em qualquer plataforma de IA –: não fornecer dados sensíveis, endereços, fotos, senhas de banco, localizações, entre outros que possam colocar a privacidade e segurança do usuário em risco.
A responsabilidade das empresas
/
Rosi ainda faz outro alerta: qualquer solução que lança mão de um robô para interagir com uma pessoa deve lembrar ao usuário, repetidamente, que ele está interagindo com um bot, mesmo que ele tenha aceitado os termos de uso da plataforma. Ela aconselha as companhias proprietárias de bots e outros serviços de IA a terem métricas de acompanhamento de comportamentos fora do padrão por parte dos usuários.
“É parte de uma postura responsável que deveria entrar nas métricas de negócios. Ainda mais quando você usa uma persona que se assemelha a um ser humano, o que intensifica ainda mais a possibilidade de vínculo emocional”, afirma a executiva.
/
*Com informações Época Negócios