Uso responsável da IA deve ser defendido pelo setor privado antes do governo assumir uma proposta regulatória

Há três grandes modelos para a regulação de inteligência artificial (IA) em discussão no mundo, segundo a professora Sue Bradford, autora do livro Digital Empires: The Global Battle to Regulate Technology, (Oxford University Press, 2023).

O primeiro deles, liderado pelos EUA, orientado para o mercado e focado no uso setorial de IA, o segundo sob a liderança chinesa liderado pelo Estado, e um terceiro modelo focado na cidadania e na proteção dos direitos fundamentais por parte da União Europeia. O Brasil parece emular o modelo europeu porque traz uma bagagem regulatória para a governança da internet, baseada em um Marco Civil da Internet, preocupa-se com a garantia dos direitos fundamentais com a Lei Geral de Proteção de Dados (LGPD) e sugere a criação de uma autoridade pública centralizada para disciplinar o mercado de IA, aos moldes da recém-criada Autoridade Nacional de Proteção de Dados (ANPD). O PL 2338/23, em discussão no Congresso Nacional, sintetiza os esforços recentes de diferentes instituições em prover um marco regulatório público para a IA.

Contudo, até hoje, discutimos muito o modelo de regulação pública, e nos preocupamos pouco com a forma como as empresas estão internalizando os sistemas de IA nas respectivas organizações. Apesar do barulho com todas as aplicações da IA generativa que aparecem diariamente na imprensa, há um silêncio a respeito de como o setor privado está disciplinando suas próprias iniciativas para utilizar sistemas de IA em suas operações, independentemente das posições de governo.

Sabemos que as aplicações da IA apresentam um leque amplo de possibilidades tecnológicas de propósito geral, com uma infinidade de ferramentas cujos resultados não são inteiramente previsíveis. Uma coisa é regular a concorrência com indicadores objetivos de valor de share de mercado e número de fusões e aquisições, outra coisa é monitorar o impacto de algoritmos que aprendem na medida que processam grandes conjuntos de dados, com riscos indesejados para a privacidade, vieses discriminatórios, ameaças à democracia com deep fake e desinformação.

O uso responsável da IA deve ser defendido pelo setor privado, antes do governo assumir uma proposta regulatória. No entanto, isso deve ser feito com ações concretas, ou seja, o mercado precisa dizer a que veio, e o que quer, de forma ofensiva. Por exemplo, se o uso de IA envolver um tipo de decisão tomada de forma automatizada, ela pode se revestir de certa opacidade, e não ser de fácil explicabilidade. Nesses casos, a IA precisa de um gerenciamento específico que vai muito além dos sistemas tradicionais de monitoramento de TI.

No caso de uso de grandes bancos de dados com aprendizado de máquina, em vez de uma lógica desenvolvida por programadores para projetar sistemas com resultados conhecidos previamente, o uso de IA muda a maneira como tais os sistemas são desenvolvidos, justificados e implantados. Isso acontece porque os sistemas de IA que realizam aprendizado contínuo acabam mudando o seu comportamento durante o uso, o que aumenta a incerteza acerca de seus resultados. Essa característica exige da organização que desenvolve os sistemas de IA uma consideração especial para garantir que seu uso responsável seja continuado mesmo com essas mudanças de comportamento.

Precisamos de mais debate junto às empresas acerca das necessidades e objetivos da organização, quais são os processos que envolvem IA, sua estrutura, tamanho e as expectativas das partes interessadas, em que medida podem e devem influenciar o estabelecimento e implementação de uma governança de IA.

Outro problema diz respeito ao equilíbrio entre os instrumentos de governança e inovação. Esse equilíbrio é delicado porque as empresas podem optar por aplicar esses instrumentos a casos de uso de IA específicos e de alto risco, em vez de desenvolver um sistema amplo de gerenciamento de IA a todos os casos de uso, pois a aplicação ampla pode prejudicar o próprio modelo de negócio ou outros objetivos corporativos sem trazer quaisquer benefícios tangíveis. Essas decisões suscitam preocupações que exigem revisão constante, ao longo do ciclo de vida da tecnologia utilizada.

Os sistemas que envolvem aplicações de IA das empresas devem estar integrados à estrutura geral de gestão, e as questões específicas relacionadas à IA precisam ser consideradas e respondidas de forma clara, no âmbito do desenho organizacional de processos, sistemas de informação e controles. Por exemplo, as organizações devem vocalizar uma política de gestão, que envolva IA, e seu uso, indicando a participação das partes interessadas, com a gestão de riscos, a transparência e fidedignidade dos sistemas e aplicações de IA que envolvam segurança, justiça, qualidade dos dados e dos sistemas de IA. Os sistemas de gestão de IA devem incluir ainda fornecedores e prestadores de serviços que desenvolvem e fornecem sistemas de IA para a empresa.

Para garantir a inovação de mercado e a IA para o bem, é importante um “processo de aprendizado” entre empresas e governo. A regra deve ser construída em comum acordo, com atribuições e competências bem definidas entre a autoridade pública e o setor privado. Não faz sentido falar em regulação de IA por uma autoridade pública se as empresas ainda não produziram a governança de IA dentro das organizações, com um modelo de avaliação de impacto dos sistemas de IA, e a definição do escopo dos sistemas de IA entre provedores, produtores, clientes e parceiros etc.

Da mesma forma, as organizações precisam desenvolver uma Política Geral de IA (com princípios éticos não apenas principiológicos, mas articulados à gestão e monitoramento), como ferramenta para abordar e mensurar riscos, dentro de um contexto maior de avaliação de desempenho, o que exige algum instrumento de monitoramento, medição, análise e avaliação do uso de IA pela organização.

Não será a autoridade pública, com base em “comando e controle” e sanções, que criará esse ecossistema de IA no mercado, pois a velocidade do desenvolvimento tecnológico é muito maior do que a velocidade para a entrada em vigor de normas jurídicas. Ou seja, ainda precisamos que o mercado indique um caminho, e as soluções de gestão de IA dentro das organizações seja minimamente configurada pelas próprias empresas.

Essa é uma pré-condição para um marco regulatório com autoridade pública centralizada, se esta for realmente a escolha para a regulação de IA no Brasil. Em resumo, o mercado precisa de uma certa maturidade acerca dessas questões, antes de caminharmos para um modelo de regulação centralizado em uma autoridade pública. Cabe às empresas revelarem como se preocupam com os seus sistemas de gestão, como gerenciam os riscos inerentes, e quais as políticas corporativas de uso de IA que a sociedade deve acompanhar, assimilar e, eventualmente, questionar. Sem o mercado sinalizar esse caminho, falar em regulação pública de IA é colocar a carroça na frente dos bois.


CRISTINA GODOY BERNARDO DE OLIVEIRA – Professora da Faculdade de Direito da USP em Ribeirão Preto (FD-USP), é co-coordenadora da área de Humanidades do Centro de Inteligência Artificial (C4AI), fruto do convênio entre a Fapesp-USP-IBM, e membro do comitê gestor do CIAAM (Centro de Inteligência Artificial e Aprendizado de Máquina da Universidade de São Paulo)
JOÃO PAULO VEIGA – Professor da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH-USP), é co-coordenador da área de Humanidades do Centro de Inteligência Artificial (C4AI), fruto do convênio entre a Fapesp-USP-IBM, e membro do comitê gestor do CIAAM (Centro de Inteligência Artificial e Aprendizado de Máquina da Universidade de São Paulo)

fonte: https://www.jota.info/opiniao-e-analise/colunas/regulando-a-inovacao/regulacao-de-ia-no-brasil-a-carroca-na-frente-dos-bois-27022024

Precisa de Ajuda?