Os defensores da liberdade de imprensa estão instando a Apple a abandonar um sistema de IA generativo “imaturo” que resumiu incorretamente uma notificação de notícias da BBC que relatou incorretamente que o suposto atirador do CEO da UnitedHealthcare, Luigi Mangione, havia se matado.
Repórteres Sem Fronteiras (RSF) disse Esta semana, a confusão da IA da Apple, que gerou um resumo falso como “Luigi Mangione dá um tiro em si mesmo”, é mais uma prova de que a inteligência artificial não pode produzir informações confiáveis para o público. A Apple Intelligence, lançada no Reino Unido em 11 de dezembro, precisou de menos de 48 horas para cometer o erro público.
“Este acidente destaca a incapacidade dos sistemas de IA de publicar sistematicamente informações de qualidade, mesmo quando baseadas em fontes jornalísticas”, afirmou a RSF. “A forma probabilística como os sistemas de IA operam os desqualifica automaticamente como uma tecnologia confiável para a mídia noticiosa que pode ser usada em soluções destinadas ao público em geral”.
Como não é confiável e preciso, a RSF disse que a IA não deveria ser usada para tais fins e pediu à Apple que retirasse o recurso de seus sistemas operacionais.
“Os fatos não podem ser decididos pelo lançamento de dados”, disse Vincent Berthier, chefe do departamento de tecnologia e jornalismo da RSF. “A RSF pede à Apple que aja de forma responsável removendo esse recurso.
“A produção automatizada de informações falsas atribuídas a um meio de comunicação é um golpe para a credibilidade do meio de comunicação e um perigo para o direito do público a informações confiáveis sobre assuntos atuais”, acrescentou Berthier.
Não se sabe se ou como a Apple planeja resolver o problema. A BBC tem arquivado sua própria reclamação, mas a Apple se recusou a comentar publicamente à emissora britânica sobre o assunto.
De acordo com a BBC, esta nem parece ser a primeira vez que os resumos de IA da Apple apresentam notícias falsas. O beeb apontou para um resumo da Apple AI de novembro compartilhado por um repórter da ProPublica que atribuiu a notícia da prisão do primeiro-ministro israelense Benjamin Netanyahu (que não aconteceu) ao New York Times, sugerindo que a Apple Intelligence pode ser uma leitora errada das manchetes diárias.
Os resultados de pesquisa de IA do Google também foram enganados, trazendo à tona links fraudulentos e também incentivando os usuários a colar queijo na pizza e comer pedras.
Berthier afirmou: “A Lei Europeia de IA – apesar de ser a legislação mais avançada do mundo nesta área – não classificou as IA geradoras de informação como sistemas de alto risco, deixando um vazio jurídico crítico. Esta lacuna deve ser preenchida imediatamente.”
O Registro entrou em contato com a Apple para saber o que ela poderia fazer para resolver o problema de sua IA tirar conclusões precipitadas sobre as notícias, e a RSF para ver se recebeu notícias da Apple, mas também não recebemos resposta. ®