No início de maio, o presidente do Senado Federal, Rodrigo Pacheco (PSD/MG),
apresentou o Projeto de Lei nº 2.338/2023, a fim de regulamentar o uso e
desenvolvimento de sistemas de Inteligência Artificial no Brasil.
Vale ressaltar que a inteligência artificial (IA), é um termo usado para se referir a
sistemas computacionais que imitam competências semelhantes às humanas,
como o raciocínio e a aprendizagem. Ainda, a tecnologia permite programas
sistemas e máquinas a desempenharem atividades de forma autônoma.
O PL foi criado com base no trabalho desenvolvido pela Comissão de Juristas da
Inteligência Artificial (CJSUBIA), instaurada no Senado Federal em 30 de março de
2022, que ficou responsável pelo estudo do tema e desenvolvimento de relatórios.
Além disso, o documento segue a linha da proposta da União Europeia (AI Act)
para regulamentação do tema.
O texto estabelece normas gerais para o desenvolvimento, implementação e o uso
responsável dos sistemas, visando proteger os direitos fundamentais, garantir
sistemas seguros e confiáveis e criar ferramentas de governança, fiscalização e
supervisão.
A proposta ainda define os passos que os desenvolvedores deverão levar em
conta antes de desenvolver e disponibilizar o sistema no mercado. Os principais
procedimentos que deverão ser observados são:
a) Avaliação Preliminar e Classificação de Risco
A proposta dispõe que toda tecnologia de IA deverá passar por avaliações
preliminares para classificar o grau de risco oferecido. Além de que, os sistemas
deverão possuir um registro oficial para fins de responsabilização e prestação de
contas.
Caso o fornecedor classifique o risco de forma inadequada, a autoridade
fiscalizadora poderá instaurar investigação e determinar a reclassificação da IA.
Classificações dos Riscos
Risco excessivo
A lei proíbe o uso de IA classificadas como de risco excessivo, isto é, sistemas
usados para induzir comportamentos danosos à saúde ou segurança, a atitudes
contrárias aos direitos humanos e valores democráticos, ou que explorem
vulnerabilidades de grupos específicos da sociedade
Risco Alto
São os sistemas de IA que possuem aplicações na área da saúde; que avaliem a
capacidade de endividamento; aplicados em sistemas biométricos de identificação;
em recrutamentos, avaliações de promoções de pessoas a cargos; que realizem a
gestão de infraestruturas críticas; que atuem na educação e formação profissional;
em veículos autônomos; entre outros.
A responsabilidade de atualizar a lista dos sistemas IA de risco excessivo ou de
alto risco, será da autoridade competente que utilizará como base critérios
predefinidos.
b) Boas Práticas de Governança
O documento também prevê a possibilidade das empresas se organizarem por
meio de associações ou individualmente para adotar códigos de condutas.
A adesão voluntária desses documentos será considerada indicativo de boa-fé e
atenuante em caso de sanções administrativas.
Ademais, a lei também prevê a adoção de um Programa de Governança de IA
para dispor acerca dos processos internos, adaptação à escala das operações,
transparência, supervisão interna e externa, planos de resposta e atualizações
constantes.
c) Responsabilidade Civil e Sanções Administrativas
Os agentes de IA que causem dano, seja patrimonial, moral, individual ou até
mesmo coletivo, são obrigados a repará-lo integralmente, independentemente do
grau de autonomia do sistema.
Não obstante, para IA de alto risco ou de risco excessivo, o fornecedor ou o
operador respondem objetivamente pelos danos causados, na medida de suas
participações no dano.
Para isso, o PL estabelece que uma autoridade competente será designada pelo
Poder Executivo para garantir o cumprimento das normas, criar novos
regulamentos e impor sanções administrativas em caso de violações.
As sanções por descumprimento da lei podem ser de multas entre R$ 50 milhões a
2% do faturamento da empresa, além de suspensões parciais, totais, temporárias
ou definitivas da empresa no segmento de IA.
No caso de infrações relacionadas a coleta e tratamento de dados, o procedimento
a ser seguido será o da Lei Geral de Proteção de Dados (Lei nº 13.709/2018).
Já, no caso de proteção à Propriedade Intelectual no uso de dados para
treinamento de sistemas, a lei diz que não há proteção.
Assim como, no caso de relações de consumo, os afetados deverão seguir as
definições do Código de Defesa do Consumidor (Lei nº 8.078/1990).
O texto do PL 2.338/23 está aguardando agora a verificação da comissão técnica
do Senado antes de ir à votação e, se aprovado, seguirá para Câmara dos
Deputados para posteriormente ser encaminhado para sanção presidencial.
Esse material foi elaborado para fins de informação e debate, não podendo ser
considerado uma opinião legal para qualquer operação ou negócio específico.
Luiane Selina Nogueira Ferrari – luiane@gomesaltimari.com.br
Thalita Silva Gabriel Araujo – thalita@gomesaltimari.com.br
Referências Bibliográficas
BRASIL. Senado Federal. Projeto de Lei nº 2.338, de 2023. Disponível em:
https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em:
09 jun. 2023.
OPICE BLUM. Marco Legal da Inteligência Artificial no Brasil (PL 2.338/2023).
Disponível em: https://opiceblum.com.br/marco-legal-da-inteligencia-artificial-no-
brasil-pl-2338-2023/. Acesso em: 09 jun. 2023.
SOFTEX. Karen Kornilovicz. Projeto de lei 2338/23 propõe regular o uso da
Inteligência Artificial no Brasil. Disponível em: https://softex.br/projeto-de-lei-
2338-23-propoe-regular-o-uso-da-inteligencia-artificial-no-brasil/. Acesso em: 09
jun. 2023.
TELESÍNTESE. Rafael Bucco. Apresentado PL com proposta de juristas para
regular a inteligência artificial. Disponível em:
https://www.telesintese.com.br/apresentado-pl-com-proposta-de-juristas-para-
regular-a-inteligencia-artificial/. Acesso em: 09 jun. 2023.