Pesquisa com 2.700 executivos mostrou que só 28% das empresas estariam preparadas para respeitar futura legislação sobre o tema. Existem 800 medidas em discussão sobre o setor em 60 países

O uso de sistemas baseados em inteligência artificial dentro das empresas tem crescido nos últimos meses, diante da possibilidade que as novas tecnologias trazem de ampliar a produtividade de diferentes setores. Apesar do interesse, menos de um terço das companhias ao redor do mundo está pronto para as leis e regulações que estão por vir, mostra levantamento do Boston Consulting Group (BCG).

A consultoria ouviu 2.700 executivos globais e descobriu que apenas 28% deles estão com suas organizações prontas para respeitar qualquer legislação que venha a ser estabelecida. E não deverão ser poucas as legislações: há mais de 800 medidas sendo discutidas em mais de 60 países e territórios, incluindo a União Europeia (UE) — onde a Lei de Inteligência Artificial (IA) já está em discussão desde 2021 e deve ser finalizada em 2024.

Traçar um plano de uso responsável da inteligência artificial é um ponto-chave para as companhias, segundo a consultoria. Mas há ainda muita incerteza quando se fala em usar a IA com responsabilidade: 82% dos entrevistados disseram que não tinham clareza sobre as políticas e ferramentas de IA.

Nesse sentido, mudar esse cenário deve ser tarefa para ontem dentro das companhias. Isso porque, geralmente, são necessários três anos para uma empresa implementar o chamado “programa de IA responsável” (RAI, na sigla em inglês) e torná-lo maduro, ou seja, completamente presente em todos os processos.

De olho nas leis futuras

Segundo Julien Imbert, diretor executivo e sócio do BCG, uma das razões que explicam o despreparo das empresas com relação a qualquer tipo de regulação que possa surgir é a novidade do tema, o que exige tempo de adaptação dos negócios. 

Além disso, a falta de uma regulamentação clara — apesar de a Europa estar avançando na discussão — faz com que as empresas prefiram esperar para agir. Outro fator é que a adoção de um programa de IA responsável ainda não é vista como uma prioridade de negócio que pode ter impacto positivo, diz:

— Os executivos entendem essa importância, veem que o programa é algo que será necessário no futuro, mas não como fonte de vantagem competitiva no momento. Falta, ainda, o entendimento mais amplo do significado do uso responsável da IA.

Imbert explica ainda que, à medida que a adoção da IA se torna mais ampla e as empresas obtêm retornos crescentes com seus investimentos na tecnologia, os riscos também se tornam mais aparentes, o que acaba exigindo um programa de responsabilidade maduro.

Segundo o executivo, o que define um bom projeto de IA responsável depende das dinâmicas de mercado e das necessidades de cada empresa em relação ao uso da inteligência artificial. Mas a pesquisa mostra alguns padrões que colaboram para programas bem-sucedidos: estrutura consolidada de ética para IA, governança humana, ferramentas e métodos para uma revisão constante dos princípios e uma participação ativa em grupos de trabalho sobre inteligência artificial responsável.

— Conseguindo erguer esses cinco pilares, as empresas já estarão bem encaminhadas na preparação para as legislações futuras — afirma Imbert.

De modo geral, empresas mais maduras digitalmente têm quase seis vezes mais chances de estarem prontas para a regulamentação da IA. Companhias ligadas aos setores de telecomunicações, tecnologia e consumo também tendem a estar mais preparadas que as demais, segundo o estudo. Cerca de um terço das empresas destes segmentos (33% a 35%) relatou estar totalmente pronto para a regulação da IA.

Em seguida, aparecem as de bens industriais, instituições financeiras, seguradoras, saúde e mídia — segmentos nos quais entre 24% e 28% se dizem preparados. Por último estão empresas de energia e o setor público, entre as quais 21% afirmam estar prontos para essa nova fase da IA regulada.

Mas estar apto para as regulações que virão relacionadas à IA não é tarefa simples, e hoje esse preparo é desigual entre as regiões. Segundo a pesquisa do BCG, as empresas da Ásia-Pacífico são mais propensas do que as da Europa e América do Norte a terem um profissional especializado em ética da IA. Mas uma parcela maior de executivos da Europa relatou que suas organizações estão preparadas para uma regulação emergente.

Cinco dicas para as companhias

Tenha um líder de IA: Segundo recomendação do Boston Consulting Group, a pessoa será responsável pelo programa de IA responsável (RAI), com entendimento profundo de regulação e do negócio.

Elabore uma política de ética para uso da IA: No RAI, estabeleça um conjunto de princípios e políticas que devem ser incorporados à cultura e às políticas da empresa.

Envolva as pessoas: A tecnologia deve ajudar a aumentar as capacidades humanas, e não substituir um profissional na tomada de decisões.

Crie ferramentas e processos de controle: Garanta a revisão constante dos princípios do RAI, como transparência e inclusão. A vantagem de investir em monitoramento está na credibilidade diante de governos e clientes.

Participe de grupos de trabalho de IA responsável:
É uma importante estratégia de colaboração e compartilhamento de informações.


Fonte: O GLOBO