×

Desafios da regulamentação da inteligência artificial generativa.

Lançado pela Open AI no ano passado, o ChatGPT trouxe à tona uma série de preocupações com a regulamentação da inteligência artificial (IA), alertando para a falta de um modelo pronto para lidar com a potencial escancaração de novos desafios. A IA generativa tem originado novas provocações, e as empresas de tecnologia precisam de leis para que haja proteção e segurança em seu uso. A União Europeia tem a proposta mais avançada para a regulamentação, enquanto as autoridades dos Estados Unidos também trabalham para estabelecer algumas regras. O problema é que esses projetos não abordam questões como o potencial de desinformação que esses programas possuem, o que pode dificultar a confiança em qualquer informação obtida através da internet.

A diretora executiva da organização de pesquisa Data & Society, Janet Haven, afirma que as empresas de tecnologia precisam de leis para serem reguladas. “A ideia de que empresas de tecnologia conseguem produzir o que quiserem e lançá-los ao mundo, e assim, a sociedade se esforça para se ajustar, mas abrir caminho para isso é um retrocesso”, completa.

A União Europeia tem a proposta mais avançada para a regulamentação da tecnologia, mas esta ainda segue em debate. O bloco de países também aprovou, ainda em 2021, a Lei de Inteligência Artificial. Se essas novas regras forem implementadas, será criada uma proteção mais forte quando a IA estiver sendo usada nas operações de aplicação da lei, decisões de emprego e outras funções de “alto risco”. Assim, o espaço será maior para experimentação de programas de menor risco. O ChatGPT, por exemplo, poderia ser classificado como de alto risco. A classificação é motivo de debate, mas, no projeto, ela está focada na forma de uso da tecnologia, e não nela em si.

Autoridades dos Estados Unidos também estão trabalhando para estabelecer algumas regras, incluindo o projeto da “Declaração de Direitos da IA”, apresentado pelo governo Biden em outubro de 2022.

No entanto, os especialistas afirmam que o problema é que esses projetos não abordam questões como o potencial de desinformação que esses programas possuem, o que pode dificultar a confiança em qualquer informação encontrada online.

Nos Estados Unidos, agências públicas e instituições financeiras já estão tentando barrar IA generativas antes mesmo de sua implementação. Com a falta de uma diretriz clara, os limites têm sido estabelecidos pelas próprias empresas que criam os programas. “Para mim, o que vai soar um alarme é se as organizações estão se direcionando para a comercialização sem falar sobre como estão garantindo que isso seja feito de maneira responsável”, afirma Steven Mills, diretor de ética de IA do Boston Consulting Group.

“Ainda não temos certeza do que essas tecnologias podem fazer”, completa.

A IA generativa tem originado novas provocações, já que ela é o nome dado aos sistemas de chatbots que geram conteúdo, como o próprio ChatGPT. Além da vigilância em massa, desigualdade e até o risco físico aos seres humanos, a IA generativa é uma preocupação a ser considerada.

No Brasil, não existe uma lei específica para a regulamentação da IA. No entanto, existem algumas normas que podem orientar o desenvolvimento de sistemas baseados em IA, como a Lei Geral de Proteção de Dados Pessoais (LGPD). A LGPD estabelece que a IA deve ser desenvolvida de forma que respeite as garantias individuais, especialmente a privacidade e a proteção dos dados pessoais.

A regulamentação da IA é um caminho longo e cheio de desafios. No entanto, é preciso considerar que são necessárias leis para garantir a segurança de uso dessas tecnologias. As autoridades precisam direcionar seus esforços para estabelecer diretrizes claras para a criação de programas de IA generativa que sejam seguros e confiáveis. A IA é uma realidade, e é preciso que sejam criadas condições que permitam o crescimento desse mercado, sem que isso represente ameaças à privacidade e à segurança dos indivíduos.

Deixe um comentário

O seu endereço de e-mail não será publicado.

Newsletter:
Assine e receba nossas notícias no seu e-mail: