Saltar para o conteúdo
What's On

ChatGPT e OpenIA investigados em Espanha por violar a lei de proteção de dados pessoais

Nas últimas horas, o ChatGPT e a sua criadora, OpenAI, voltaram a ser notícia. A Agência Espanhola de Proteção de Dados (AEPD) anunciou através de um comunicado a investigação de ofício que inicia sobre a ferramenta de inteligência artificial mais popular dos últimos meses.

A Espanha não será o primeiro país a lançar uma ação deste tipo. Algum outro, de facto, foi ainda mais longe. Este foi o caso de Itália, que proibiu diretamente o uso da ferramenta no país e ordenou o seu bloqueio por alegada recolha ilícita de dados pessoais. Este foi o ponto de partida para que outros países europeus se juntassem ao exemplo deixado por Itália com a sua ação e exigissem maiores medidas de controlo sobre o ChatGPT.

No início de abril, a AEPD já tinha solicitado ao Comité Europeu de Proteção de Dados o estudo deste chat conversacional de IA por considerar que poderia ter um impacto importante nos direitos das pessoas. Desde então, passaram duas semanas e ontem mesmo (quinta-feira, 13 de abril), o organismo europeu aprovou a criação de um grupo de trabalho (task force) para cooperar e partilhar informação sobre outras ações implementadas pelas diferentes autoridades locais de proteção de dados.

A Agência anunciou também ontem que, juntamente com o início da investigação no nosso país a nível europeu, abrirá igualmente uma investigação ao ChatGPT como autoridade local para avaliar a violação dos direitos das pessoas à proteção dos seus dados pessoais.

“E tudo isto, porquê?”, perguntar-se-ão. Há vários argumentos. Alguns focam-se mais no facto da forma como a ferramenta de inteligência artificial recolhe essa enorme quantidade de dados pessoais com que treina e vai aprendendo. Por não informar claramente como esses dados foram recolhidos, parece que a forma como chegam ao chat pode não ser totalmente legal.

Outros argumentos alinham-se com o uso não autorizado de excertos de obras propriedade de outras pessoas que a plataforma utiliza ao elaborar um texto. Certamente que cada um dos especialistas que está a abordar o tema tem um novo pormenor para acrescentar a todas estas teorias e, por isso, pela pluralidade de vozes que parecem estar a alertar para o ChatGPT, é que as autoridades locais europeias e de outras partes do mundo estão a implementar as suas medidas de controlo.

A realidade demonstra que o desenvolvimento da Inteligência Artificial está a avançar mais rápido do que a legislação, pelo que ainda há muito trabalho a fazer para conseguir que estas ferramentas sejam mais facilmente auditáveis e cumpram completamente a legislação em vigor. Recordemos que o ChatGPT atingiu os 100 milhões de utilizadores nos seus primeiros dois meses de vida.

 

Grandes vozes da tecnologia unidas contra o avanço imparável da IA

"Pedimos a todos os laboratórios de IA que suspendam imediatamente durante pelo menos 6 meses o treino de sistemas de IA mais potentes que o GPT-4". Este é o pedido que os signatários da carta aberta expunham no seu escrito do final de março. Entre as principais personalidades do mundo da tecnologia, esta carta foi assinada por Elon Musk, Steve Wozniak (cofundador da Apple) ou Jaan Tallinn (cofundador do Skype). Desta forma, mais de 1000 vozes importantes no mundo da tecnologia tornaram públicas as suas dúvidas sobre os rápidos avanços dos sistemas de IA. Referiam-se, mais concretamente, àqueles que representavam um avanço em relação à última versão lançada do GPT-4 (na prática, é o mesmo que o ChatGPT de que todos ouviram falar, mas com maior taxa de acerto nas respostas ou algo mais desenvolvido).

Mas nem tudo são maus presságios para a IA. Esta carta deixa claro, por sua vez, que o desenvolvimento do sistema de IA pode representar uma mudança muito profunda na história. Mas também impõe como condição que seja gerido e planeado de forma adequada.

Claro que o desenvolvimento de tecnologias tão avançadas como a IA está aí para facilitar a nossa vida, mas sempre respeitando os direitos das pessoas, utilizando dados e informações autorizados e sendo leais à verdade. Nas últimas semanas vimos imagens falsas criadas por IA que mostravam o Papa Francisco com um casaco da Balenciaga ou Trump a resistir à polícia.

Este tipo de imagens reflete a parte mais imoral destas ferramentas, aquela que engana e gera notícias falsas.

A IA é muito mais do que o ChatGPT e existem diferentes tipos. As empresas tecnológicas já utilizam este tipo de tecnologia há muitos anos para usos tão quotidianos como desbloquear um dispositivo móvel apenas com o olhar. No futuro espera-se que da combinação de diferentes tecnologias surjam projetos de uso particular que nos ajudem, com uma IA muito avançada conhecida como Aprendizagem por Reforço, a controlar a temperatura das nossas casas e escritórios de modo a que casas e negócios se tornem espaços completamente autónomos na regulação da temperatura e do conforto de forma mais eficiente economicamente e respeitadora do Ambiente.

A parte benéfica da IA também está aí, só é preciso saber usá-la.

Publicação anterior Publicação seguinte
Bem-vindo à nossa loja
Bem-vindo à nossa loja
Bem-vindo à nossa loja