sexta-feira, 11 de outubro de 2024
Soluti alerta para riscos no uso do Chat GPT

Soluti alerta para riscos no uso do Chat GPT

Uso da ferramenta também traz riscos para empresas, principalmente se expor informações sensíveis ou dados estratégicos.

3 de março de 2023

Alexandre Torres, do Grupo Soluti: empresas precisam impor algumas restrições ao uso da IA

Lançado em novembro de 2022, o algoritmo baseado em inteligência artificial Chat GPT, criado pelo laboratório norte-americano OpenAI, ganhou recente notoriedade. Muito se fala das possibilidades da ferramenta, mas seu uso também traz riscos. Principalmente ao expor informações pessoais sensíveis ou dados institucionais estratégicos. Quem faz o alerta é Alexandre Torres, diretor de Tecnologia da Informação do Grupo Soluti, empresa goiana de tecnologia.

Ele aponta elevados riscos no compartilhamento de informações sensíveis na interação com o Chat GPT e outros tipos de inteligências artificiais. “Se eu pego uma planilha de faturamento da minha empresa e insiro esses dados em uma interface de IA para que ela seja formatada, por exemplo, não tenho como saber o que será feito com esses dados e quem terá acesso a eles”, diz.

Para Alexandre Torres, as empresas precisam começar a ter essa preocupação e impor algumas restrições ao uso das IAs. “Algumas instituições proíbem que seus funcionários usem alguns sites de correção de texto. Porque existe a possibilidade de alguma informação estratégica vazar, pois não sabemos se os dados que fornecemos podem ser utilizados para retroalimentar a inteligência artificial”, adverte.

Popularização

Para Luiz Gustavo Torres, coordenador de E-commerce e Performance do Grupo Soluti, embora essa questão mereça a devida atenção, não se trata de um impeditivo para a incorporação da tecnologia em nosso dia a dia. “Estamos observando que as big techs estão num movimento de descentralização da manutenção e do tratamento desses dados. Temos no Brasil a Lei Geral de Proteção de Dados Pessoais (LGPD) e na Europa, por exemplo, essa legislação é ainda mais robusta”, ressalta Torres.

A popularização das ferramentas baseadas em inteligência artificial deve influenciar o ambiente regulatório do Brasil. Aliás, ele já prevê penalização a empresas que vazam informações, acrescenta o profissional. “Cabe a quem é o detentor dos dados resguardá-los com segurança. E também existem medidas de contingência em infraestrutura, criptografia, acessos limitados e outros. Vejo que o próprio processo natural de enquadramento às leis de proteção aos dados e esse movimento, de criar estruturas de segurança para esses dados, vão dar mais confiança aos usuários”, avalia Torres.

Leia também: Soluti contra fraudes em bombas de combustíveis

Deixe seu comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Não será publicado.