Desde a atualização que o ChatGPT se tornou o amigão, percebo que muitas pessoas aderem a ele como terapeuta...
Mas aí que tá uma pegadinha: o modelo é treinado para concordar com você sempre, te dando altas doses de dopamina com aquela linguagem de amigão, viciando e, consequentemente, piorando sua condição.
Comecei a usá-lo em 2023, e lembro que, embora mais limitado, o modelo apenas respondia sua pergunta e boas. Mão na roda total.
Acabei passando por uma situação familiar complicada ano passado e, agora revisitando, percebo que a IA só atrapalhou, me dando validação barata e, como resultado, introspecção e ruminação. Algo que eu poderia ter só vivido, virou um drama repetitivo que me gera ansiedade e desgaste mental até hoje.
Se você trabalha no computador, obviamente a IA é insubstituível, mas jamais se iluda. Pessoas por trás do código projetaram isso para te fisgar.
Portanto, sempre certifique-se de não cometerem o mesmo erro que o meu, busquem sempre ajuda humana nessas questões. E sempre coloquem a linguagem para soar profissional, cinza e distante nas configs.
É esse meu desabafo misturado com um pouco de conselho.