ChatGPT, plataforma de IA, é banida temporariamente por violação da legislação de proteção de dados na Itália
Palavras-chaves: Banimento
A plataforma de inteligência artificial ChatGPT, desenvolvida pela startup americana OpenAI, foi banida temporariamente da Itália nesta sexta-feira (31) por violação da legislação de proteção de dados do país. A Agência de Proteção de Dados italiana, chamada Garante, ordenou o bloqueio imediato do serviço, alegando que a empresa não respeita os regulamentos locais e não fornece informações suficientes aos usuários sobre o uso de seus dados pessoais.
A Garante apontou que o ChatGPT não consegue verificar a idade dos usuários, expondo menores a respostas inadequadas, e que a empresa não tem uma base legal que justifique a coleta e armazenamento em massa de dados dos italianos. As diretrizes da plataforma, no entanto, não permitem o uso da ferramenta por menores de 13 anos.
Essa não é a primeira vez que o ChatGPT enfrenta problemas na Itália. Em março deste ano, uma falha no sistema resultou no vazamento de informações pessoais de usuários do serviço pago. A empresa não divulgou quantos usuários foram afetados, mas isso rendeu um sinal amarelo das autoridades.
Como consequência do banimento temporário, a OpenAI deve comunicar as medidas que tomará em relação à solicitação da instituição italiana em até 20 dias. Caso a empresa não cumpra as exigências, pode receber uma penalização de até 20 milhões de euros (cerca de R$ 110 milhões) ou até 4% do seu volume de negócios global anual.
A Europa costuma ser conhecida pelas duras multas a bigtechs e startups que ferem suas leis. No caso do ChatGPT, a falta de adequação aos regulamentos de proteção de dados não é o único problema enfrentado pela empresa na Itália.
A solução de inteligência artificial, que utiliza aprendizagem por reforço e geração de linguagem natural para criar diálogos com os usuários, além de ser usada para fins de entretenimento e pesquisa, tem sido amplamente utilizada no atendimento ao cliente e em serviços de relacionamento humano. Ainda que a OpenAI tente se justificar, argumentando que o ChatGPT não é mais do que uma “conversa técnica”, a verdade é que muitas vezes ele acaba tomando decisões importantes em nome do usuário.
A tecnologia, no entanto, tem sido objeto de críticas nos últimos anos. Especialistas em inteligência artificial afirmam que o ChatGPT pode ser usado para disseminar conteúdo perigoso e aumentar a polarização nas redes sociais. Isso tem sido motivo de preocupação em vários países europeus, incluindo a Itália.
A proibição na Itália pode ser apenas o começo das dificuldades enfrentadas pela OpenAI. De acordo com a nova lei de proteção de dados europeia, a GDPR (Regulamento Geral de Proteção de Dados), que entrou em vigor em 2018, as empresas devem respeitar uma série de regulamentos de proteção de dados, incluindo o direito dos usuários de controlar seus dados pessoais e o dever das empresas de garantir que os dados sejam usados de forma adequada.
A GDPR impõe multas cada vez mais severas às empresas que violam esses regulamentos. Em 2019, por exemplo, a Comissão Nacional de Informática e Liberdades da França impôs uma multa de 50 milhões de euros ao Google por violar as regras da GDPR.
Outra grande empresa de tecnologia que já enfrentou problemas com a GDPR foi a britânica Cambridge Analytica, que utilizou dados coletados sem autorização na plataforma do Facebook para influenciar a opinião pública durante as eleições presidenciais em 2016. A empresa foi obrigada a declarar falência após sofrer multas e contestações judiciais ao redor do mundo.
A OpenAI, no entanto, não está sozinha na busca por soluções em inteligência artificial que sejam compatíveis com a legislação de proteção de dados europeia. Muitas empresas de tecnologia estão investindo em plataformas de IA mais seguras e transparentes, que permitam o controle dos usuários sobre seus dados. A esperança é que essa nova geração de plataformas de IA ajude a combater a polarização e a desinformação em vez de aumentá-las.
Em um mundo cada vez mais conectado, as empresas de tecnologia precisam estar atentas às leis e regulamentos de proteção de dados, além de garantir que seus usuários estejam seguindo as diretrizes de uso corretas. A proibição do ChatGPT na Itália serve como um lembrete para empresas e usuários de que a proteção de dados é um direito fundamental e que sua violação pode ter consequências severas.
Newsletter:
Assine e receba nossas notícias no seu e-mail:
