O avanço acelerado da Inteligência Artificial (IA) no Brasil e no mundo tem provocado um intenso debate sobre a necessidade de regulamentações claras que orientem seu desenvolvimento e aplicação. No entanto, enquanto o Projeto de Lei nº 2338/2023, que visa estabelecer diretrizes para o uso da IA no Brasil, ainda tramita no Congresso sem previsão de aprovação, cresce a percepção entre especialistas de que o setor privado pode — e deve — se antecipar. A autorregulação surge, nesse contexto, como um caminho viável e urgente para garantir que a IA seja usada de forma segura, ética e transparente.
Em um cenário onde a tecnologia avança mais rápido que o arcabouço jurídico, a ausência de um marco regulatório não pode ser justificativa para práticas irresponsáveis ou pouco seguras. É nesse ponto que a autorregulação ganha força: ela permite que empresas, startups, centros de pesquisa e organizações públicas estabeleçam normas internas de conduta e mecanismos de fiscalização próprios, adaptando-se com mais agilidade às transformações tecnológicas. Para Michel Cury, advogado e Diretor Executivo da Rocket Lawyer LatAm, essa é uma ferramenta crucial para reduzir riscos enquanto o país ainda constrói seu marco legal. “A autorregulação oferece flexibilidade sem abrir mão da responsabilidade. É uma forma de proteger a sociedade e, ao mesmo tempo, incentivar a inovação”, pontua.
Internacionalmente, modelos híbridos que combinam leis formais com práticas de autorregulação já são realidade. Na União Europeia, por exemplo, o AI Act avança com uma estrutura rígida de obrigações, mas coexistindo com selos voluntários de conformidade e boas práticas adotadas por empresas comprometidas. Já nos Estados Unidos, a ênfase tem sido na responsabilidade corporativa e no desenvolvimento de frameworks próprios. Esses exemplos mostram que o caminho da autorregulação não se opõe à legislação: ao contrário, ele a antecipa e a complementa, formando uma base sólida para o uso responsável da tecnologia.
No Brasil, a aplicação da IA em setores críticos como saúde, educação, segurança pública e gestão de dados pessoais exige atenção redobrada. Os impactos sociais e éticos são profundos, e os riscos de discriminação algorítmica, invasão de privacidade e tomada de decisões automatizadas sem supervisão humana estão no centro das preocupações. A proposta de autorregulação, portanto, inclui não apenas a criação de códigos de conduta, mas também ações concretas como auditorias independentes, comitês de ética, canais de denúncia e processos transparentes de desenvolvimento e uso dos sistemas.
Para o especialista, um dos pontos-chave dessa abordagem é que ela permite agir agora. “Não podemos esperar que o Congresso resolva tudo. A responsabilidade de quem desenvolve e aplica a IA começa já, com ou sem lei vigente”, reforça Cury. Essa visão parte do princípio de que o setor tem maturidade suficiente para estabelecer compromissos éticos e técnicos, ao mesmo tempo em que colabora ativamente com os legisladores na construção de um futuro regulatório mais alinhado à realidade da inovação.
A expectativa é que, nos próximos anos, o Brasil avance em um modelo regulatório que una a força da legislação com a agilidade da autorregulação, evitando tanto o vácuo normativo quanto o excesso de burocracia que pode engessar a inovação. Até lá, cabe ao ecossistema tecnológico liderar pelo exemplo — com responsabilidade, transparência e compromisso com o bem coletivo.
Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
Bárbara Stephanie Monteiro
[email protected]