"Temos muito mais poder do que as empresas tecnológicas gostariam que pensasse", pelo que as pessoas podem usar a tecnologia melhor, afirma a filósofa e professora na Universidade de Oxford, uma das oradoras do TEDxPorto 2025, que decorre no Porto em 29 de março sob o mote "A Grande Questão", onde vai abordar o papel da privacidade e da ética na era digital.
"A privacidade protege-nos de possíveis abusos de poder", salienta a autora do livro Privacy is Power [Privacidade é Poder], que foi distinguida com o prémio Herbert A. Simon em 2021 pelo contributo na intersecção entre computação e filosofia.
"Quando as pessoas sabem muito sobre si, têm mais poder sobre si, porque sabem como podem agir, sabem o que pode fazer a seguir, o que desejam, o que temem", argumenta Carissa Véliz para explicar a importância da privacidade.
Além disso, "quando há instituições que são muito poderosas e que se encarregam de decidir o que conta como conhecimento, decidem quem tu és no sentido em que decidem colocar categorias em ti. E, portanto, se dizem que és esse tipo de pessoa, mesmo que não sejas, a sociedade trata-te assim. Portanto, se tiver privacidade, não poderão encaixá-lo numa categoria ou noutra", adverte, salientando a importância do tema da privacidade quando se fala de tecnologia, nomeadamente de IA.
"A IA é relevante para a privacidade porque o tipo de IA que estamos a utilizar agora é principalmente a aprendizagem automática, a aprendizagem automática utiliza muitos dados e muitos deles são dados pessoais", refere.
Depois, com os grandes modelos de linguagem (LLM) "tornou-se muito mais fácil filtrar os dados de modo a analisar muitos dados muito rapidamente" e, com isso, "a vigilância em massa tornou-se super fácil" e mais "barata do que costumava ser".
Questionada sobre como se pode voltar a ter controlo sobre os dados pessoais num mundo em que a inteligência artificial prospera, a académica, que integra o grupo de líderes especialistas Women4Ethical AI da Unesco e presta apoio a empresas e governos na definição de políticas de IA responsáveis, cita "algumas formas".
A primeira "é que podemos conceber melhor a IA", porque "em cada tecnologia há decisões envolvidas e as tecnologias não são dadas por Deus, nós construímo-las e podemos construí-las de maneira diferente", prossegue.
Desta forma, "podemos construir IA para não utilizar dados pessoais, podemos construir IA para não inferir dados pessoais" ou "podemos construir IA de uma forma diferente da aprendizagem automática", aponta.
Isto "é mais simbólico e baseado na lógica e refere-se a evidências empíricas", mas efetivamente "podemos conceber melhor tecnologia". Aliás, "existe tecnologia que é encriptada, por exemplo, e que se tornou o padrão", argumenta.
Em suma, "precisamos de melhor tecnologia", defende.
Em segundo lugar, "precisamos de leis melhores", o Regulamento Geral sobre a Proteção de Dados (RGPD) "foi um passo na direção certa, mas claramente não é suficiente, dada a quantidade de escândalos que vemos".
E agora, sublinha, "há muita pressão para não implementar o RGPD e não ir além do RGPD".
Mas, "enquanto sociedade, precisamos de descobrir que tipo de comunidade queremos e como construímos as leis para que isso seja possível", até porque "a tecnologia tem de se adaptar às leis e não as leis à tecnologia", insiste.
Em terceiro lugar, "há muito que as empresas podem fazer", estas "podem ser melhores cidadãs e conceber melhores tecnologias, mas também implementar melhores tecnologias".
Utilizar a tecnologia "de forma irreflexiva e sem os padrões éticos apropriados é problemático e pode ser feito melhor", aponta, acrescentando que também "há muito que a sociedade civil pode fazer".
No fundo, "há muito que se pode fazer para proteger a privacidade", salienta, tema que a filósofa explora no seu livro sobre a privacidade.
Quanto à ética da IA, refere que "é uma disciplina muito jovem e há muito para investigar, há muito a aprender com a experiência", mas já estão a ser desenvolvidas "melhores práticas".
Estas incluem coisas "como a construção de uma IA que respeite muito mais a privacidade, que seja muito mais ecológica, que não seja preconceituosa contra grupos vulneráveis, que não esteja habituada a obscurecer decisões e a evitar a responsabilização".
Muito disto "tem a ver menos com a tecnologia e mais com a forma como a utilizamos", salienta.
No final do dia, "as leis tratam da nossa realidade social e política", agora "precisamos de garantir que a tecnologia respeita estas regras", conclui.
Leia Também: Geopolítica da IA está "tensa" mas é preciso não enquadrá-la como corrida