quarta-feira, 1 de maio de 2024
Inteligência Artificial: Quem vai fiscalizar?

Inteligência Artificial: Quem vai fiscalizar?

Não basta regulamentar a IA se não houver pessoas preparadas a executar esse trabalho de fiscalização

24 de julho de 2023

A Inteligência Artificial (IA) já está presente em nossas vidas há um bom tempo, com os algoritmos das redes sociais. No entanto, a introdução de tecnologias como o ChatGPT elevou esse tipo de inovação a um novo nível. Diante desse contexto, torna-se imprescindível e pertinente promover uma discussão sobre

a regulamentação da IA em nosso país, com foco primordial na proteção dos direitos fundamentais das pessoas humanas. Esta reflexão busca atender às demandas daqueles que compreendem a importância de uma abordagem regulatória adequada frente aos avanços e desafios proporcionados pela IA.

Nesse sentido, a União Europeia saiu na frente e já tem aprovada a Lei da Inteligência Artificial. A expectativa é que essa iniciativa incentive outros países, incluindo o Brasil, a adotar regulações próprias. Desde 2022, nosso país discute, por meio do PL 2338/2023, de autoria do senador Rodrigo Pacheco (PSD-MG),  normatizar o uso dessas ferramentas. 

O projeto em questão estabelece normas gerais para o desenvolvimento e implementação responsável de sistemas seguros envolvendo a tecnologia de IA no país e, em seu arcabouço, já contém regras que têm como finalidade a proteção humana.

Mas, além disso, é de extrema importância fazer a análise de duas questões nesse cenário: a primeira sobre quem será o órgão fiscalizador e a preparação e qualificação a que os fiscais serão submetidos, e a segunda sobre quais serão os riscos e direitos assegurados.

No PL existe a previsão, por exemplo, da necessidade de informação prévia sobre qualquer tipo de interação com sistemas de IA, além da explicação sobre decisões ou recomendações tomadas por eles, com o direito, inclusive, de contestá-las e solicitar intervenção humana. 

Outro ponto importante se refere a proibição de discriminação das pessoas – seja por cor, raça ou gênero – pelos sistemas de IA.

Da mesma forma, atitudes consideradas perigosas e prejudiciais à saúde ou à segurança também estão vedadas.

Todavia, o ponto que mais preocupa e tem tirado o sono de empresas e corporações que fazem uso de sistemas de IA é o que tange à responsabilidade civil, sendo o causador pelo dano patrimonial, moral, individual ou coletivo obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema.

Além disso, as empresas ou responsáveis poderão arcar com multas no valor de até R$ 50 milhões por infração ou até 2% do faturamento bruto anual. Caso a advertência e a multa não resolvam, a sanção poderá chegar à proibição total do uso de IA.

Não basta regulamentar a IA se não houver pessoas preparadas a executar esse trabalho de fiscalização, garantido que as sanções sejam aplicadas da forma correta, se e quando necessárias. De nada adiantará punir empresas e corporações se, na prática, não existir uma política clara e que realmente priorize e combata qualquer tipo de prejuízo à vida das pessoas com responsabilidade e transparência.

No contexto atual, a IA se tornou uma ferramenta indispensável, assim como outras tecnologias presentes em nosso mundo.

No entanto, é imprescindível utilizá-la com responsabilidade. Além disso, é essencial diversificar os programadores dos códigos para evitar vieses, já que o sistema é alimentado pelo ser humano que o desenvolve. A IA deve ser vista como uma ferramenta que agiliza tarefas operacionais, liberando tempo para atividades mais estratégicas. No entanto, é crucial assegurar que essas tecnologias não comprometam os princípios e direitos fundamentais estabelecidos em nossa Constituição.

Carolina Perroni é especialista em Direito Empresarial e sócia-fundadora do Perroni Sanvicente & Schirmer Advogados (PS&S)

Carolina Perroni é especialista em Direito Empresarial e sócia-fundadora do Perroni Sanvicente & Schirmer Advogados (PS&S)

Deixe seu comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Não será publicado.