Falhas de IA do Google exigem medidas mais rigorosas.

As respostas imprevisíveis da inteligência artificial representam novos desafios

A recente implementação pela Google de uma ferramenta de revisão baseada em IA, projetada para oferecer respostas instantâneas nos resultados de pesquisa, gerou respostas inesperadas e imaginativas, como reivindicações sobre a existência de gatos lunares. Em um caso, quando repórteres da Associated Press perguntaram se os gatos haviam ido à Lua, a busca por IA da Google retornou uma resposta fantasiosa sugerindo que astronautas tinham de fato encontrado e até mesmo ajudado os amigos felinos na superfície lunar, atribuindo de forma fantasiosa as históricas palavras de Neil Armstrong a um “pequeno passo para um gato”.

Especialistas expressam preocupações sobre sistemas de IA que se baseiam em fontes duvidosas, levando à propagação de informações falsas. Melodie Mitchell, pesquisadora de IA dos EUA, experimentou em primeira mão as armadilhas da IA da Google ao questionar sobre presidentes muçulmanos dos Estados Unidos. A Google respondeu com confiança informações incorretas, afirmando falsamente que Barack Obama era o único presidente muçulmano. Mitchell destacou que a IA fundamentou sua alegação incorreta com uma referência a uma publicação acadêmica, que não substanciou a desinformação, mas apenas mencionou a teoria da conspiração.

Os erros de IA não incluem apenas falhas humorísticas, mas também falsidades potencialmente prejudiciais. Consultas críticas de emergência, feitas por usuários em situações de angústia, podem passar despercebidas devido ao estresse e urgência, exacerbando a situação ao levar à confiança equivocada em informações de primeira vista. Além disso, cresce a preocupação de que essas redes neurais reforcem preconceitos perigosos, com conteúdos problemáticos descobertos nos conjuntos de dados usados para treinar a IA.

A Google reconheceu a importância de agir rapidamente para corrigir esses erros e está utilizando essas experiências para futuros aperfeiçoamentos. A urgência de se manter à frente no cenário competitivo, com empresas como os desenvolvedores americanos OpenAI e Perplexity AI, pode ter sido um fator contribuinte para os problemas com o novo recurso. Notavelmente, a Perplexity AI mostrou proporcionar respostas mais precisas do que a Google para várias consultas.

Importância da Supervisão Responsável da IA

Conforme a tecnologia continua a evoluir, sistemas de IA como os da Google estão sendo cada vez mais encarregados de fornecer informações. No entanto, essa responsabilidade apresenta riscos inerentes quando a precisão é comprometida. Dois questionamentos principais surgem desta situação:

1. Como garantir que as informações fornecidas pela IA sejam precisas?
2. Que medidas devem ser implementadas para evitar a propagação de desinformação?

Os desafios associados ao tema de erros e desinformação da IA incluem garantir a confiabilidade das fontes das quais os sistemas de IA se baseiam, prevenir o reforço de preconceitos sociais e corrigir rapidamente os erros quando ocorrem.

Lidando com Desinformação e Preconceitos

Controvérsias nesse campo frequentemente envolvem decidir quem é responsável pela desinformação gerada pela IA e como regulá-la para prevenir tais ocorrências. O desenvolvimento de algoritmos mais sofisticados para verificar informações e a obtenção de dados confiáveis são parte da solução. Além disso, abordar os preconceitos embutidos nos conjuntos de dados de treinamento é essencial para resultados de IA justos e imparciais.

As vantagens das ferramentas de revisão impulsionadas por IA são diversas. Elas proporcionam acesso rápido a informações, auxiliam no gerenciamento de inúmeras consultas simultaneamente e eliminam alguns erros humanos. No entanto, as desvantagens são igualmente significativas. Elas incluem fornecimento de informações incorretas, possível reforço de preconceitos e causar confusão ou danos se forem usadas para decisões críticas.

Em resumo, embora o potencial da IA seja vasto, também é necessária uma supervisão rigorosa, refinamento e consideração ética. Para mais informações sobre inteligência artificial e seu avanço, os seguintes links podem ser de interesse:
OpenAI
Google

É essencial que líderes da indústria e reguladores contribuam para desenvolver padrões e estruturas para uma IA responsável, a fim de evitar minar a confiança pública nessa poderosa tecnologia.

Privacy policy
Contact