Reconhecidamente uma das tecnologias mais promissoras e influentes da atualidade, a inteligência artificial (IA) carrega uma série de recursos que rapidamente impactaram todas as esferas do cotidiano das pessoas e organizações.
Como exemplos, podem ser citados o reconhecimento facial, a obtenção de dados precisos de geolocalização em tempo real, o aprendizado de máquina e o uso da tecnologia generativa.
Contudo, se por um lado tais facilidades provocam uma série de avanços, por outro, acarretam diversas preocupações quanto ao uso indevido e possíveis impactos sobre a sociedade.
Por essa razão, reguladores e legisladores em todo o mundo vêm empreendendo esforços para a regulação da IA, visando o desenvolvimento e a utilização responsável da tecnologia, sem que isso represente, de fato, um freio à inovação.
Entretanto, o debate em torno da questão varia bastante. Há, por exemplo, divergências internas na própria União Europeia (UE), onde alguns estados-membros pensam diferente da abordagem proposta pelo Parlamento Europeu.
Já nos Estados Unidos (EUA), ainda que reguladores como a FTC (sigla em inglês para Comissão Federal de Comércio) respondam rapidamente aos receios da sociedade sobre os impactos da inteligência artificial, sobretudo a generativa, não existe ainda uma lei federal nessa direção.
No Brasil, por sua vez, a discussão de uma eventual legislação em torno da inteligência artificial segue em discussão no Congresso, sem sinais de desfecho no curto prazo.
Entretanto, em meio a esse cenário, já é possível identificar algumas tendências de regulamentação. É o que revela o estudo “The Artificial Intelligence Global Regulatory Landscape” (O Cenário Regulatório Global da Inteligência Artificial, na tradução direta), recentemente divulgado pela Agência EY.
Para onde caminha a regulamentação do desenvolvimento e uso da inteligência artificial?
Para identificar essas tendências, a publicação analisou abordagens propostas para a regulação da inteligência artificial em sete jurisdições que, no momento, estão mais em evidência: Canadá, China, Coreia do Sul, EUA, Japão, Singapura e UE.
Como resultado, o estudo conseguiu identificar cinco projeções:
- Respeito às diretrizes da OCDE (Organização para Cooperação e Desenvolvimento Econômico), visto que os textos em discussão estão de acordo com as normas para a inteligência artificial estabelecidas pela entidade e acatadas pelo G20 (grupo das 20 economias mais desenvolvidas do mundo), considerando a observância aos direitos humanos, administração eficaz de riscos e transparência;
- Perspectiva centrada nos riscos, significando que as obrigações de conformidade devam ser correspondentes ao nível de ameaças oferecido pela inteligência artificial para pessoas e organizações. Tomando como exemplo a abordagem da UE, a ideia é que as soluções sejam classificadas como de baixo risco à sociedade, risco limitado e alto risco, com cada uma delas trazendo obrigações de privacidade e transparência distintos;
- Inteligência artificial com princípios abrangentes ou voltados para cada setor, pois o nível de risco dos sistemas varia conforme a atividade econômica. No caso dos serviços financeiros, por exemplo, é necessário considerar a análise de risco inerente à contratação de crédito pelos consumidores, devendo-se, portanto, observar critérios aplicáveis a este setor;
- Política de conformidade com outras regulamentações de ordem digital, como privacidade dos dados, proteção de direitos autorais e cibersegurança;
- Participação do setor privado, afinal, muitos países estão se valendo de sandboxes, ou seja, ambientes de testes como instrumento por meio do qual reguladores e legisladores trabalham junto com as empresas desenvolvedoras. Dessa forma, é possível chegar a regras que não inibam investimentos e inovação, de acordo com os especialistas.
Conexão entre as jurisdições
Juntamente com essas cinco tendências para a regulamentação da inteligência artificial, o estudo da EY chama a atenção para a importância de um diálogo entre as diferentes regulações em andamento no contexto global, sem, entretanto, desconsiderar as particularidades de cada país.
Resumidamente, aponta a publicação, as futuras legislações em torno da inteligência artificial devem ser interoperáveis por três razões.
Primeiramente, tendo em vista a diminuição dos custos de adequação e conformidade para as empresas, que cada vez mais conduzem atividades globalmente.
Em segundo lugar, no sentido de assegurar normas consistentes, eficazes e passíveis de comparação em todas as jurisdições.
Por fim, em terceiro lugar, para que seja possível fornecer a devida proteção aos consumidores em relação aos serviços globais de inteligência artificial.
Veja mais:
Pressão por regulação de inteligência artificial atrai mais setores da sociedade
A Inteligência Artificial como bem de utilidade pública: um imperativo global