Quatro riscos da IA generativa que todas as empresas deviam conhecer

5 mín.
A forma de um cérebro, ilustrada com um design de circuito azul sobre um fundo preto.

De acordo com um relatório recente da McKinsey, "a IA generativa tem potencial para mudar a anatomia do trabalho" e "aumentará substancialmente a produtividade do trabalho em toda a economia". No momento da escrita, identificaram 63 casos de utilização de IA generativa que abrangem 16 funções empresariais, o que lhe dá alguma ideia do nível de potencial transformação. É claro que a produtividade, a eficiência e a eficácia são o Santo Graal para as organizações que querem alcançar sucesso a longo prazo num mundo em mudança, pelo que esta notícia foi recebida com grande entusiasmo.

No entanto, no meio do entusiasmo, uma palavra volta repetidamente à sua cabeça: risco. A IA generativa ainda é muito recente, afinal de contas. Assim, as empresas precisam de pensar cuidadosamente sobre como é implementada nas suas organizações e quais podem ser os potenciais resultados. "Tudo se resume à tolerância ao risco e ao apetite pelo risco", afirma Quentyn Taylor, Diretor Sénior da Canon EMEA – Segurança da Informação e Resposta Global. "Por exemplo, estamos dispostos a aceitar uma IA que responda às questões dos clientes, quando, ocasionalmente, irá errar?" Esta é apenas uma forma de utilizar a IA generativa para aumentar a eficiência, mas, tal como Quentyn indica, qual é o risco reputacional quando um cliente recebe informações incorretas? Depende muito do produto e do cliente, e este é o grande desafio para as empresas – ter uma compreensão clara dos locais onde a IA generativa pode acrescentar valor verdadeiro e daqueles onde não existe um nível de risco aceitável. Para começar a fazer esses julgamentos, é fundamental entender exatamente quais podem ser os riscos.

Proteger a propriedade intelectual e as informações comercialmente sensíveis

Esta é a área que foi abordada de imediato pela maioria das organizações, com algumas a proibir totalmente a utilização de quaisquer ferramentas e serviços de IA generativa para proteger e preservar a sua privacidade empresarial. Essencialmente, tudo o que entra num modelo de IA generativa torna-se em dados de treino. Por isso, se lhe pedisse que escrevesse um discurso para o lançamento de um produto interessante, fornecendo todos os detalhes desse produto no pedido, teria acabado de carregar informações embargadas e essenciais para a empresa numa ferramenta globalmente utilizada. Se a sua empresa vive e morre pela sua PI, então este é um nível de risco inaceitável. "Por outro lado," diz Quentyn, "se usar IA generativa para escrever 300 descrições ligeiramente variáveis para produtos existentes, é um problema? Provavelmente não." Outra perspetiva a considerar é o esforço do policiamento da questão contra o resultado: "Reprimir a aplicação de IA generativa é uma utilização eficaz do nosso tempo? Podemos bloquear totalmente o acesso quando há milhares de novas ferramentas a serem lançadas todos os dias?" pergunta.

Duas pessoas sentam-se na sua secretária num escritório, voltadas uma para a outra, mas ambas a olhar para ecrãs grandes enquanto trabalham nos seus computadores.

Quando as suas equipas utilizam a IA generativa para as ajudar nas suas tarefas diárias, é essencial que se certifiquem de que não carregam informações comercialmente sensíveis.

Tomada de decisões, parcialidade e comunicação

Quem é responsável? Bem, é claro que a tomada de decisões começa no topo, mas quando a administração tira conclusões com a ajuda de ferramentas de IA generativa, o processo tem de ser totalmente claro. Da mesma forma, é vital que a parcialidade seja tida em conta ao usar a IA generativa como uma ferramenta de análise de opções para aumentar a produtividade e a rentabilidade. É amplamente compreendido que os dados de treino devem ser vastos para que um modelo de IA seja minimamente justo, mas mesmo assim, a parcialidade está lá. É por isso que muitas organizações optam por não utilizar tais ferramentas em áreas-chave de tomada de decisões, sendo muitas vezes citada a contratação como uma área problemática. Quentyn ressalta isso, dizendo "Deve sempre compreender o contexto em que qualquer decisão com apoio de IA é tomada", afirma Quentyn. "E isso deve ser claramente comunicado ao resto da organização, caso contrário corre o risco de criar uma confusão generalizada e desconfiança na liderança." Isto é particularmente importante quando se considera a frequência com que as decisões organizacionais requerem uma "desconstrução", para compreender a base frequentemente subtil sobre a qual as ações são mandatadas.

Violação de copyright

Neste momento, estão em curso alguns processos judiciais de alto perfil em que as partes acreditam que o seu trabalho criativo foi utilizado para treinar uma IA sem o seu consentimento. E não há preocupações mais graves quanto à utilização de IA generativa do que as que concernem a legalidade do conteúdo que cria. Sim, existem algumas ferramentas novas (como o Adobe Firefly) que são treinadas somente com dados legalmente obtidos, mas no caso de outras, neste momento, há muito pouca ou mesmo nenhuma clareza a respeito do seu nível de segurança quanto à produção de um conjunto de imagens para uma campanha nas redes sociais ou à criação de uma nova identidade da marca. Ao trabalhar com terceiros em tais atividades, Quentyn considera importante "adaptar ou atualizar contratos para mitigar o risco e garantir que diretrizes e políticas claras estão implementadas internamente".

Quando a IA generativa diz mentiras

Poderá ter ouvido o termo "alucinações" referido com bastante frequência no contexto da IA generativa. Em termos simplistas, é quando um modelo de AI gera uma resposta falsa ou irrealista. Pode ser algo tonto, como uma palavra completamente inventada ou uma frase sem sentido. Ou pode fornecer com confiança uma informação falsa, que foi o que aconteceu a dois advogados que apresentaram seis citações em tribunal que se revelaram completamente fictícias. Foi descoberto mais tarde que foram geradas por ChatGPT e os advogados foram condenados a pagar uma multa de 5000 dólares. Os especialistas em IA reconhecem a questão e "estão a progredir", mas, entretanto, esta é uma área de risco excecional para as organizações e os respetivos líderes. "Verificação de factos, verificação de factos, verificação de factos" reforça Quentyn. "Este é um dos papéis principais dos seres humanos quando utilizamos IA para gerar conteúdo subjacente. Temos de ser editores escrupulosos e eficazes." Também adverte sobre os riscos da utilização de bots de IA generativa para monitorizar e responder nas redes sociais. "O seu bot pode começar a dar respostas que, em teoria, podem estar corretas, mas não no contexto da pergunta que lhes foi colocada."

No geral, Quentyn tem a certeza que muitas organizações irão adotar a IA como um "benefício de fundo", incorporada e oferecida através dos serviços e ferramentas que já utilizam. A este respeito, grande parte do risco está já atenuado através de contratos com terceiros e da implementação de soluções de parceiros conhecidos, respeitados e comprovados. "Talvez uma empresa possa usar a IA para pesquisar e-mails, em busca de esquemas de phishing", explica. "Não é algo que provavelmente codificassem ou desenvolvessem especificamente, mas beneficiarão com o uso de ferramentas que incluam esse serviço." Em última análise, qualquer negócio envolve uma quantidade significativa de gestão de risco e as novas oportunidades apresentadas pela IA generativa não diferem nesse sentido.

Relacionado