A inteligência artificial (IA) está a moldar o mundo em que vivemos e já tem sido visível o seu impacto na sociedade e nos diversos setores que a compõem. Utilizar a IA para desbloquear valores, sejam eles financeiros e/ou sociais e beneficiar a Humanidade, assegurando ao mesmo tempo resultados empresariais fiáveis através de soluções de IA éticas, responsáveis e conformes, é a maior “oportunidade-desafio” para as organizações.

A utilização responsável da IA tem a ver com a definição de princípios, governação e operacionalização dos mesmos para garantir resultados fiáveis. Mas em que ponto estamos? De acordo com o estudo “The Business Case for Responsible AI Governance” da IDC e Credo AI (2023), o nível de confiança das organizações na utilização da IA de forma ética, responsável e conforme está bastante equilibrada, embora o cenário apresentado possa ser otimista: 39% estão muito confiantes, 33% estão confiantes, mas com reservas e 27% com baixa confiança.

A utilização responsável da IA consiste em estabelecer barreiras de proteção e não obstáculos, tendo há muito deixado de ser apenas uma necessidade ética, mas também um imperativo de negócio. Ora, um dos principais dilemas éticos da IA são os algoritmos. Os algoritmos de IA são tão bons quanto os dados que são usados para treiná-los. Se esses dados refletirem preconceitos ou desigualdades existentes na sociedade, os algoritmos podem perpetuar e até amplificar essas questões. É essencial a consciência de que a tecnologia não deve ampliar injustiças sociais, mas sim mitigá-las.

Se por um lado, a IA é a protagonista desta “nova vaga de inovação”, por outro tem ainda mais potencial quando combina os conhecimentos humanos e a utilização ética da tecnologia. Organizações que desenhem estratégias de IA responsáveis e éticas, que integrem o alinhamento com os valores humanos, que promovam ativamente a justiça e a inclusão, e que garantam que os sistemas de IA beneficiam de forma sustentável os indivíduos, a sociedade e o ambiente, serão certamente empresas mais competitivas no futuro.

Uma abordagem de utilização ética da IA tem impacto nas organizações em diferentes níveis: permite evitar repercussões financeiras e de reputação e ganhar vantagens competitivas que derivam da transparência; permite reforçar a confiança e a responsabilidade social, garantindo resultados fiáveis que beneficiam a sociedade em geral; e ainda permite controlar e assegurar o cumprimento da regulamentação, seja esta local ou internacional.

Não podemos esquecer que a recolha de dados massiva que hoje é feita para treinarmos os diferentes modelos de IA pode ser uma ameaça à nossa privacidade e, nesse sentido, é cada vez mais importante encontrarmos o equilíbrio entre os benefícios da IA e a privacidade e proteção pessoais.

No setor público, por exemplo, a promessa da IA é revolucionária: desde a automação de processos burocráticos até à análise de grandes volumes de dados para prever tendências e tomar decisões informadas, a IA tem aplicações vastas e impactantes. Contudo, existem várias considerações quando decidimos confiar em algoritmos para orientar políticas e processos, nomeadamente a questão da transparência. Os algoritmos que orientam as decisões governamentais devem ser compreensíveis e explicáveis, tendo os cidadãos direito a saber de que forma são tomadas as decisões. A transparência não apenas aumenta a confiança pública na tecnologia, mas também permite uma supervisão adequada para corrigir problemas e garantir a responsabilidade.

A ética na IA não é apenas uma questão de conformidade ou responsabilidade corporativa, mas sim de justiça, equidade e respeito pelos direitos humanos. Deve, portanto, existir uma responsabilidade acrescida para as empresas que trabalham diretamente com a inovação. Estas têm a obrigação de liderar pelo exemplo e de promover uma cultura de ética na IA. Isso significa permitir processos rigorosos de design, desenvolvimento, teste e operações, apoiados por políticas e práticas de privacidade e segurança, para garantir que os resultados estão sempre em conformidade com as leis e regulamentos aplicáveis; desenhar e implementar sistemas que assentem em modelos explicáveis e interpretáveis, com contributos e resultados transparentes; e assumir a responsabilidade pelas tecnologias de IA que controlam.

Estamos perante uma “onda” de transformação mundial fomentada pela IA, que vai aumentando de tamanho a cada minuto e percorrendo todo o mundo a grande velocidade. Cabe, por isso, a cada um de nós, às organizações de que somos parte e aos estados a que pertencemos, ter a capacidade de garantir que esta onda possa ser surfável e prazerosa para todos, e não um tsunami devastador.

Patrícia Almeida
Vice-President Consulting Services, CGI

Publicado na Executive Digest/ 31 julho 2024