Future of Money

'A IA é um espelho que reflete nossos vieses, e empresas precisam lidar com isso', diz líder da IBM

Em entrevista exclusiva à EXAME, Phaedra Boinodiris falou sobre esforços para o desenvolvimento de IAs mais confiáveis e éticas

João Pedro Malar
João Pedro Malar

Repórter do Future of Money

Publicado em 7 de novembro de 2024 às 10h30.

Última atualização em 7 de novembro de 2024 às 15h21.

Tudo sobreInteligência artificial
Saiba mais

Um espelho. É assim que a estudiosa Phaedra Boinodiris define a inteligência artificial. Conhecida por ser uma das principais referências no mundo sobre o desenvolvimento de IAs mais confiáveis e éticas, a líder global da IBM Consulting para IA responsável compartilhou sua visão sobre o momento atual da tecnologia em uma entrevista exclusiva à EXAME.

Boinodiris lembra que a inteligência artificial já existe algum tempo e que preocupações sobre aspectos éticos, de vieses e de segurança já existiam nos modelos tradicionais. A grande novidade que a inteligência artificial generativa trouxe, em sua visão, é ser "muito facilmente acessível. As pessoas agora podem reconhecer diretamente esses riscos, tanto os novos quanto os que já existiam há muito tempo".

A especialista comenta que, conforme a IA passou a ser usada para gerar conteúdos novos em texto, vídeo, áudio e imagem, ela trouxe à tona "problemas de representação, de não conseguir refletir as comunidades altamente diversas que existem hoje". E, se as empresas querem adotar essa tecnologia, elas precisarão lidar com essas questões.

Vieses e IAs

Para Boinodiris, antes de falar sobre inteligência artificial é preciso falar sobre a sua "matéria-prima": os dados. "A minha definição favorita de dados é que eles são artefatos da experiência humana. Hoje, nós fabricamos máquinas que produzem dados, mas nós temos nossos preconceitos".

"A IA é um espelho, ela reflete os preconceitos de volta para nós, sejam eles quais forem, mas temos que ser corajosos e dizer se esses vieses mostrados compartilham dos nossos valores e, em caso afirmativo, devemos ser transparentes, explicar por que escolhemos esses dados, o modelo, tomamos as decisões que levaram ao resultado", defende.

Ela ressalta que "todos os nossos dados e modelos são tendenciosos". Mas a chave está em "descobrir quais preconceitos são desejados e, se houver os indesejados, como eliminá-los".

O essencial para isso, avalia é a educação: "Quanto mais educação as pessoas recebem, mais conhecimento elas têm sobre o funcionamento da tecnologia. Infelizmente, não tem havido um esforço para fazer investimentos na alfabetização em IA, seja nas empresas, nas escolas ou nas universidades".

"Precisamos focar também nos mais jovens e, principalmente, ensinar sobre isso de maneira realista. Muitas pessoas nem sequer percebem que os dados são tendenciosos e que, por isso, os modelos também serão tendenciosos. É realmente crítico que tenhamos uma reflexão sobre como lidar com esse problema", defende.

No mundo empresarial, Boinodiris pontua que uma das questões mais importantes para as companhias é conseguir "extrair valor" de qualquer tecnologia, incluindo a IA. "As empresas querem ter certeza de que os investimentos ajudarão efetivamente na estratégia de negócios. Para isso, é preciso garantir que os investimentos também abordem os desafios da tecnologia, e como resolvê-los".

O maior desafio, afirma, é "garantir que o modelo de IA escolhido reflita a visão e as necessidades da empresa. Os resultados precisam estar corretos e devem refletir os valores da empresa. Ou seja, a questão é como criar uma estrutura de governança corretora, que engloba as pessoas, os processos, a comunicação e alfabetização sobre o tema".

  • Uma nova era da economia digital está acontecendo bem diante dos seus olhos. Não perca tempo nem fique para trás: abra sua conta na Mynt e invista com o apoio de especialistas e com curadoria dos melhores criptoativos para você investir

A pesquisadora destaca que questões como as chamadas "alucinações" de IA já estão "desacelerando a adoção" da tecnologia. Ela acredita que as empresas perceberam que "precisam de trilhos seguros para seguir em frente. Sem a confiança das pessoas, sem ter os dados corretos, os comandos corretos, as pessoas vão deixar de usar os modelos porque vão deixar de confiar neles".

Para ela, esses problemas mostram que a questão "volta para aspectos de educação, literacia, porque as pessoas precisam pensar nas formas de construir inteligências artificiais que sejam confiáveis".

Em busca de pontos de luz

Quando o assunto é ética em inteligência artificial, a líder da IBM Consulting para IA responsável é categórica: "Não há como ter uma IA ética consensual". O motivo, explica, é simples. Os padrões éticos variam de sociedade em sociedade, e portanto não há um padrão comum há ser seguido. Diante disso, ela defende que o essencial é a transparência por trás dessas IAs.

"É preciso explicar quais dados foram escolhidos para treinar a IA, o motivo de ter escolhido esses dados, a abordagem adotada, se fez auditoria, porque escolheu determinada auditagem, qual é o seu objetivo, como corrigiu vieses, quais valores teve como referência ao fazer tudo disso", argumenta.

"É imperativo que tenha transparência, mesmo em um cenário de centralização, e que os modelos e decisões sejam explicáveis. Sem isso, é muito difícil ter a confiança das pessoas", ressalta.

A chave, defende, é construir modelos de IA pensando no propósito que eles terão e a relação que esse modelo terá com as empresas e pessoas. Nesse sentido, ela pontua que "a IA não deve substituir ou controlar os humanos, mas sim aprimorar a inteligência humana. Se esse for o propósito, você pensa em como usar a IA para aprimorar, empoderar as pessoas".

"É claro que, nas organizações, teremos pessoas que serão substituídas por IAs. Mas acho que isso nos leva de volta à questão da educação. Como podemos inserir nos sistemas educacionais estratégias para que as pessoas aprendam a ter um uso crítico de IA e a como e quando confiar nesses modelos, até para não serem substituídas", diz.

Nesse sentido, Boinodiris tem buscado "pontos de luz", lugares que criaram iniciativas positivas, unindo empresas, ONGs, governos, centros de pesquisa e comunidades para ajudar a criar IAs mais responsáveis e debater questões de regulação, educação e como a IA pode ser usada para beneficiar tanto as pessoas quanto as empresas.

"É algo muito interessante, porque é um reconhecimento explícito de que todos precisam estar unidos e compartilhar as boas práticas sobre inteligência artificial", resume.

A regulação

A especialista comenta ainda que a regulação de IA tem um "papel extremamente importante", mas comenta que ela tem sido uma "regulação de precisão, focada no alto risco". "Ao redor do mundo, as regulações têm exigido que os usos de alto risco sejam auditados e prestem contas", comenta.

Mas, apesar do movimento ser importante, também há um outro lado. "Uma das nuances disso é que esse processo dá muito trabalho. Ser responsável por esses modelos não é basicamente apenas acompanhar a regulamentação, mas também ter o inventário do modelo, alinhar o valor na regulamentação, avançar para a ética e depois ter programas de alfabetização para ensinar as pessoas. É um trabalho que não para de crescer e exige muitos recursos, de tempo e dinheiro".

"Em situações de alto risco, deve haver regulamentos que obriguem as organizações a divulgar o uso de IA, mas muitas organizações não são incentivadas para serem transparentes quanto ao uso em outras situações. Novamente, acho que isso passa pela questão da educação, das pessoas serem críticas quanto a isso e aos modelos", diz.

Boinodiris explica que é preciso que as pessoas sejam "capazes de fazer as perguntas adequadas, entender como o sistema foi criado, a origem dos dados, se é melhor ou não que um humano. É preciso chegar nesse ponto. Mas a questão é como fazer essa 'alfabetização para IA' se nem conseguirmos fazer ainda a 'alfabetização digital'. Nós precisamos ter uma educação sobre tecnologia mais acessível e inclusiva".

"Acho que há pontos de luz, instâncias em que líderes acadêmicos e líderes governamentais reconhecem que deve haver uma abordagem holística e inclusiva em relação à forma como estamos ensinando o assunto. O que precisamos agora é amplificar esses pontos, e precisamos fazer isso rápido", ressalta.

Siga o Future of Money nas redes sociais: Instagram | Twitter | YouTube Telegram | TikTok

Acompanhe tudo sobre:Inteligência artificialIBM

Mais de Future of Money

"Erro de US$ 4 bilhões": ex-executivo do Facebook se arrepende de ter vendido bitcoin

Investidores desistem de processo bilionário contra Elon Musk sobre dogecoin

Gestora diz que bitcoin vai valer US$ 200 mil até 2025 e espera novos recordes

XRP dispara mais de 20% com entusiasmo de investidores após eleições nos EUA