IA responsável

Há muitos motivos para os líderes empresariais se empolgarem com a inteligência artificial (IA) generativa, começando por seu poder e facilidade de uso. No entanto, como acontece com qualquer tecnologia emergente, também existem novos riscos potenciais. Alguns desses riscos podem surgir do uso da IA pela sua empresa, enquanto outros podem vir de agentes mal-intencionados.

Para gerenciar ambos os tipos de risco e aproveitar o poder da IA generativa para gerar resultados sustentáveis e construir confiança, você precisará de uma IA responsável. Mas o que exatamente é IA responsável? É uma metodologia projetada para permitir o uso confiável e ético da IA. Ela sempre foi importante, mas tornou-se crucial na nova era da IA generativa.

Resumo

  • A IA generativa pode transformar o seu negócio – desde que seja aplicada de forma responsável para gerenciar novos riscos e fortalecer a confiança.
  • Os riscos incluem cibersegurança, privacidade, questões legais, desempenho, viés e propriedade intelectual.
  • Para alcançar uma IA responsável, é fundamental que cada alto executivo compreenda seu papel.

O que a IA generativa pode e não pode fazer

Com comandos em linguagem natural, você pode direcionar a IA generativa para criar código de software, analisar dados, gerar textos, vídeos, vozes humanizadas, espaços no metaverso e muito mais. À medida que os meses passam, espera-se que esse poder transforme funções, modelos de negócios e indústrias. Atualmente, a IA generativa está sendo utilizada por um número crescente de pessoas, não apenas por cientistas de dados, para gerar valor em grande escala. Ela está aumentando a produtividade, apoiando a tomada de decisões humanas e reduzindo custos. Alguns dos casos de uso que estão se expandindo atualmente incluem:

  • Aprimoramento da automação e personalização no atendimento ao cliente.
  • Automação de tarefas de alto volume, como o processamento de solicitações ou a elaboração de códigos de software.
  • Fornecimento de resumos e análises aprofundadas de documentos empresariais, reuniões e feedback de clientes.

No entanto, a IA generativa está longe de ser perfeita. Ela tenta prever a melhor resposta a um comando ou solicitação com base em seus algoritmos e conjuntos de dados. Seus resultados podem ser altamente úteis, mas muitas vezes se assemelham a “primeiros rascunhos”. Isso significa que você provavelmente precisará verificar a qualidade da saída, analisar sua precisão e fazer os ajustes necessários.

Além disso, a IA generativa pode ocasionalmente produzir respostas irrelevantes, imprecisas, ofensivas ou juridicamente problemáticas. Isso ocorre, em parte, porque os usuários podem não fornecer os comandos corretos e, em parte, porque esses modelos são criativos por natureza.

Novos riscos cibernéticos também estão surgindo, como o uso dessas tecnologias por agentes mal-intencionados para criar deepfakes e facilitar ataques cibernéticos em grande escala. Como uma quantidade inédita de pessoas tem acesso à IA generativa, esses riscos podem se tornar ainda mais disseminados. Muitos usuários dentro da sua organização talvez não estejam familiarizados com o funcionamento dos modelos de IA e com as melhores práticas para seu uso adequado.

Os novos desafios de confiança da IA generativa e como a IA responsável pode ajudar

A IA responsável pode ajudar a gerenciar esses e outros riscos. Ela pode aumentar a confiança em toda a IA que você compra, desenvolve e utiliza – inclusive a IA generativa. Quando bem implementada, ela aborda tanto os riscos no nível da aplicação, como falhas de desempenho, segurança e controle quanto os riscos em nível empresarial e nacional, como conformidade regulatória, impactos financeiros e de marca, migração de empregos e disseminação de desinformação. No entanto, para ser eficaz, a IA responsável deve ser uma parte fundamental da sua estratégia de IA.

Nossa abordagem para a IA responsável oferece confiança desde a concepção e ao longo de todo o ciclo de vida da IA, com frameworks, modelos e ativos baseados em código. Essa abordagem é relevante para executivos de todos os níveis:

  • O CEO e o conselho definem a estratégia, com atenção especial às políticas públicas e aos valores e propósito da empresa.
  • Os diretores de risco e compliance são responsáveis pelo controle, incluindo governança, conformidade e gestão de riscos.
  • Os diretores de TI e segurança da informação lideram as práticas responsáveis, como cibersegurança, privacidade e desempenho.
  • Os cientistas de dados e especialistas em negócios aplicam práticas essenciais de IA responsável ao desenvolver casos de uso, formular problemas e prompts, validar e monitorar os resultados.

Ferramentas da PwC para a IA responsável

À medida que sua empresa começa a explorar casos de uso da IA generativa e aplicar a IA responsável, é essencial dar atenção a alguns riscos críticos:

  • Conteúdo tendencioso, ofensivo ou enganoso. Assim como a IA convencional, a IA generativa pode apresentar viés contra determinados grupos de pessoas, principalmente devido a tendências presentes nos dados de treinamento. No entanto, o risco é ainda mais grave, pois a IA generativa pode criar – em seu nome – desinformação e conteúdo abusivo ou ofensivo.
  • Novas e mais complexas “caixas-pretas”. A IA generativa normalmente opera com um “modelo de base” desenvolvido por terceiros especializados. Como sua empresa não tem esse modelo nem acesso ao seu funcionamento interno, muitas vezes é impossível entender por que ele gerou determinado resultado. Além disso, algumas ferramentas de IA generativa não divulgam qual solução de terceiros estão utilizando.
  • Ameaças cibernéticas. Assim como a IA generativa pode ajudar sua empresa a produzir conteúdo convincente, também pode ajudar agentes mal-intencionados a fazer o mesmo. Ela pode, por exemplo, analisar os e-mails dos executivos, as postagens em redes sociais e aparições em vídeos para imitar seu estilo de escrita, fala e expressões faciais. Dessa forma, a IA generativa pode criar um e-mail ou vídeo falso que parece autêntico, espalhando desinformação ou solicitando o compartilhamento de dados sensíveis.
  • Novas formas de violação de privacidade. A capacidade da IA generativa de conectar dados de seus vastos conjuntos de informações (e até gerar novos dados conforme necessário) pode comprometer seus controles de privacidade. Ao identificar relações entre pontos de dados aparentemente desconectados, a IA pode reconhecer pessoas ou instituições anonimizadas e recriar suas informações sensíveis.
  • Alucinações que comprometem o desempenho. A IA generativa é excelente em fornecer respostas convincentes para quase qualquer pergunta. No entanto, às vezes suas respostas são completamente erradas, mas ainda apresentadas com autoridade – um fenômeno conhecido como “alucinação”. Isso acontece porque os modelos de IA são projetados para gerar conteúdo plausível, mesmo que nem sempre ele seja preciso.
  • Modelos inseguros, baseados em apropriação indevida. Com a imensa quantidade de dados usados para treinar a IA generativa, pode ser difícil saber de onde essas informações vêm — e se você tem permissão para usá-las. A IA generativa pode, por exemplo, reproduzir textos, imagens ou códigos protegidos por direitos autorais no conteúdo que gera em seu nome. Isso pode ser considerado roubo de propriedade intelectual, resultando em multas, processos judiciais e danos à reputação da sua marca.
  • Compartilhamento involuntário de sua propriedade intelectual. Se não houver cautela, sua empresa pode acabar compartilhando dados e insights proprietários com os concorrentes. Informações que você insere em um modelo de IA generativa podem ser armazenadas em um banco de dados e se tornarem amplamente acessíveis, permitindo que seus concorrentes usem seus próprios dados para gerar conteúdo.

Como começar a usar a IA generativa de forma responsável

Se sua empresa já tem um programa sólido de IA responsável, é provável que seus esforços de governança já tenham identificado muitos dos novos desafios da IA generativa. No entanto, há áreas-chave que exigem atenção especial e passos fundamentais a serem considerados para aplicar a IA responsável em um ambiente tecnológico em rápida evolução.

  • Defina prioridades com base em riscos. Alguns riscos da IA generativa são mais críticos para seus stakeholders do que outros. Ajuste ou estabeleça fluxos de escalonamento para garantir que as equipes de governança, compliance, risco, auditoria interna e IA concentrem os maiores esforços nos maiores riscos.
  • Atualize proteções cibernéticas e de dados e privacidade. Reforce protocolos de cibersegurança, governança de dados e privacidade para mitigar riscos, como a capacidade da IA generativa de inferir dados privados, revelar identidades ou ser utilizada por agentes mal-intencionados para ataques cibernéticos.
  • Gerencie o risco de opacidade. Em alguns sistemas de IA generativa, a explicabilidade é limitada ou inexistente – ou seja, pode ser impossível entender os critérios e a lógica por trás de determinado resultado. Identifique esses sistemas, avalie quais práticas podem promover justiça, precisão e conformidade e adote uma abordagem cautelosa sempre que a supervisão for inviável ou impraticável.
  • Prepare seus stakeholders para o uso e a supervisão responsáveis. Instrua os funcionários que utilizarão a IA generativa, garantindo que compreendam seu funcionamento, quando e como aplicá-la e de que forma verificar ou ajustar suas respostas. Forneça às equipes jurídica e de compliance as ferramentas e competências necessárias para identificar possíveis violações de propriedade intelectual e outros riscos associados, fortalecendo a governança e o uso responsável da tecnologia.
  • Monitore terceiros. Saiba quais fornecedores estão fornecendo conteúdo ou serviços que utilizam IA generativa, como eles gerenciam os riscos envolvidos e qual pode ser a sua exposição a esses riscos.
  • Acompanhe a evolução das regulamentações. Os formuladores de políticas em todo o mundo estão publicando cada vez mais orientações sobre o desenvolvimento e uso da IA. Essas diretrizes ainda não formam um arcabouço regulatório completo, mas novas regras estão surgindo o tempo todo, especialmente em relação a privacidade, viés da IA e governança da IA.
  • Implemente supervisão automatizada. Com a crescente popularização do conteúdo gerado por IA, avalie usar novas ferramentas para identificar conteúdos gerados por IA, verificar a precisão das respostas, avaliar vieses e possíveis violações de privacidade e adicionar citações ou alertas, conforme necessário.

Projete a confiança desde o início

Se há uma regra de ouro para a IA responsável (e para tecnologias confiáveis em geral), é que é melhor incorporar a confiança e a ética desde o início do que tentar corrigir falhas depois que os sistemas já estão em operação.

Por isso, independentemente do nível de maturidade da sua empresa em IA, incluindo a IA generativa, é essencial priorizar a IA responsável desde o início e mantê-la como preocupação central ao longo de todo o processo.

IA responsável da PwC

Ajudamos você a aproveitar a IA com confiança com frameworks, modelos e ativos baseados em código.

Saiba mais

IA generativa

Lidere com confiança para gerar resultados sustentáveis e transformar o futuro do seu negócio.

Saiba mais

O que a IA generativa pode fazer por você?

A IA generativa já está aqui e transformando os negócios. Entre em contato para saber mais sobre essa tecnologia em rápida evolução – e como você pode começar a usá-la de forma responsável.

Contatos

Hugo Spindola

Hugo Spindola

Sócio, PwC Brasil

Denise  Pinheiro

Denise Pinheiro

Sócia líder de Transformação Digital & Inteligência Artificial, PwC Brasil

Francisco  Macedo

Francisco Macedo

Sócio e líder de Serviços de Riscos, PwC Brasil

Siga a PwC Brasil nas redes sociais