Por muito útil e divertido que seja usar ferramentas de Inteligência Artificial (IA) como o ChatGPT ou o DeepSeek R1, deve sempre ter em conta a forma como estes serviços afetam a segurança e a privacidade. “A Internet nunca esquece”, afirma o especialista em cibersegurança Miguel Fornés da Surfshark.
Fornés esteve à conversa com o site TechRadar sobre as implicações deste tipo de ferramentas de IA para a segurança e privacidade dos utilizadores, notando que os dados fornecidos podem muito bem ser usados contra os seres humanos.
“Esta informação pode ser usada contra nós no caso de um roubo de dados, como fazerem-se passar nós, responderem às nossas perguntas de segurança ou preparar um ataque de ‘phishing’ ou burla”, explica Fornés.
O mesmo acontece quando se carrega uma fotografia para o ChatGPT a transformar de alguma forma, diz Iskander Sanchez-Rola da empresa de cibersegurança Norton. “Quando carregas voluntariamente uma fotografia, que tem dados faciais de alta qualidade, para gerar com IA uma boneca ou figura de ação, isto pode ser usado para treinar sistema de reconhecimento facial”, afirma o especialista em cibersegurança.
Posto isto, há certas coisas que deve fazer para reduzir a possibilidade de ter os seus dados usados contra e assumir sempre que tal pode acontecer. Desta forma, temos três dicas que vai querer adotar para melhorar a sua segurança e privacidade:
- Proteja as suas contas com autenticação de dois fatores e use palavras-passe complexas e única para cada serviço;
- Minimize a quantidade de dados reais sobre si que introduz num destes serviços de Inteligência Artificial (IA);
- Use estas ferramentas de forma responsável e cética, recorrendo ao modo incógnito sempre que possível.
Leia Também: Depois do ChatGPT, a OpenAI planeia criar a sua própria rede social