Responsabilidade em pauta: Audrey Azoulay, diretora-geral da Unesco, discursa no 2o Fórum Global sobre Ética da IA em Kranj, na Eslovênia (Luka Dakskobler/SOPA Images/LightRocket/Getty Images)
Colunista
Publicado em 29 de abril de 2024 às 06h00.
Última atualização em 29 de abril de 2024 às 14h34.
Este é um momento crucial para a IA generativa, à medida que avanços nas capacidades de geração de modelos cativam a imaginação e impulsionam a adoção empresarial. Esses modelos têm o potencial de transformar todas as empresas e proporcionar novos níveis de sucesso aos clientes, assim como eliminar tarefas repetitivas e criar oportunidades para quem não tem habilidades específicas.
Ao mesmo tempo, o que percebemos é que a IA generativa acerta várias coisas, mas também erra e alucina. Os líderes empresariais desejam adotar a IA generativa, mas reconhecem a necessidade de equilibrar valor e risco.
Intenção e inclusão como meios para desenvolver a IA
As organizações precisam de um framework claro para usar a IA generativa e alinhar seus objetivos com as necessidades de seus negócios. É fundamental que as empresas considerem princípios confiáveis de IA e incorporem diretrizes éticas e orientações em seus produtos para contribuir para a inovação responsável e identificar problemas potenciais antes que ocorram.
Para ajudar a orientar o desenvolvimento e o uso responsável e ético dessas tecnologias, as empresas devem se apoiar em cinco diretrizes.
1. Precisão e confiabilidade: os dados são o combustível para a IA — sem dados confiáveis e de alta qualidade, ela se torna “lixo”. Isso pode ser feito citando fontes, explicando por que a inteligência artificial deu as respostas que deu e garantindo que haja um humano envolvido quando apropriado, em vez de depender inteiramente da automação. Além disso, os dados de todos os aplicativos precisam estar integrados para gerar uma visão única do cliente — só assim a IA pode gerar um conteúdo bem personalizado.
2. Segurança: todo esforço para mitigar resultados prejudiciais por meio de avaliações de viés deve ser priorizado, assim como ampliar a capacidade de explicar a decisão tomada pela IA. As organizações devem proteger a privacidade de qualquer informação de identificação pessoal presente nos dados usados para treinamento, a fim de evitar danos potenciais.
3. Honestidade: ao coletar dados para treinar e avaliar modelos, deve-se respeitar a procedência dos dados e garantir que haja consentimento para usá-los. Ao treinar modelos usando tags, por exemplo, as equipes podem instruir o sistema a identificar e não usar dados de treinamento que incluam informações pessoais em sua saída. O conteúdo gerado de forma autônoma também deve ser facilmente identificável — uma resposta de chatbot para um consumidor pode incluir o uso de marcas d’água.
4. Empoderamento: a IA deve desempenhar um papel de apoio ao ser humano. Ao adotarem uma abordagem de “humano no loop” durante o desenvolvimento e o uso de tecnologias de IA generativa, as empresas podem validar e testar fluxos de trabalho automatizados com supervisão humana antes de liberar sistemas totalmente autônomos.
5. Sustentabilidade: IA responsável também significa IA sustentável. Os modelos de linguagem são descritos como “grandes” com base no número de valores ou parâmetros que usam. Ao considerar modelos de IA, maior nem sempre significa melhor — quanto maior ele for, mais energia e água são necessárias. Devemos desenvolver modelos de tamanho adequado sempre que possível para reduzir nossa pegada de carbono e uso de água.
Estratégia de IA pensada para todos
Ainda estamos nos primeiros dias dessa tecnologia transformadora, mas aprender e colaborar com outros desbloqueará o potencial positivo da IA. Quando se trata de regulamentação, nenhuma empresa ou organização possui todas as respostas. O verdadeiro desafio para os legisladores será lidar com o ritmo das mudanças.
Adotar uma abordagem de múltiplos interessados, envolvendo setores público e privado e a sociedade civil, é crucial para identificar riscos potenciais e compartilhar soluções, garantindo que essas tecnologias sejam desenvolvidas e utilizadas de forma inclusiva e intencional. Ter diretrizes e salvaguardas ajudará as empresas a garantir que as ferramentas que implementam sejam precisas, seguras e confiáveis.