Início Ciência e tecnologia Apple pediu para interromper os resumos de manchetes de IA após falsas...

Apple pediu para interromper os resumos de manchetes de IA após falsas alegações • The Register

42
0

Os defensores da liberdade de imprensa estão instando a Apple a abandonar um sistema de IA generativo “imaturo” que resumiu incorretamente uma notificação de notícias da BBC que relatou incorretamente que o suposto atirador do CEO da UnitedHealthcare, Luigi Mangione, havia se matado.

Repórteres Sem Fronteiras (RSF) disse Esta semana, a confusão da IA ​​da Apple, que gerou um resumo falso como “Luigi Mangione dá um tiro em si mesmo”, é mais uma prova de que a inteligência artificial não pode produzir informações confiáveis ​​para o público. A Apple Intelligence, lançada no Reino Unido em 11 de dezembro, precisou de menos de 48 horas para cometer o erro público.

“Este acidente destaca a incapacidade dos sistemas de IA de publicar sistematicamente informações de qualidade, mesmo quando baseadas em fontes jornalísticas”, afirmou a RSF. “A forma probabilística como os sistemas de IA operam os desqualifica automaticamente como uma tecnologia confiável para a mídia noticiosa que pode ser usada em soluções destinadas ao público em geral”.

Como não é confiável e preciso, a RSF disse que a IA não deveria ser usada para tais fins e pediu à Apple que retirasse o recurso de seus sistemas operacionais.

“Os fatos não podem ser decididos pelo lançamento de dados”, disse Vincent Berthier, chefe do departamento de tecnologia e jornalismo da RSF. “A RSF pede à Apple que aja de forma responsável removendo esse recurso.

“A produção automatizada de informações falsas atribuídas a um meio de comunicação é um golpe para a credibilidade do meio de comunicação e um perigo para o direito do público a informações confiáveis ​​sobre assuntos atuais”, acrescentou Berthier.

Não se sabe se ou como a Apple planeja resolver o problema. A BBC tem arquivado sua própria reclamação, mas a Apple se recusou a comentar publicamente à emissora britânica sobre o assunto.

De acordo com a BBC, esta nem parece ser a primeira vez que os resumos de IA da Apple apresentam notícias falsas. O beeb apontou para um resumo da Apple AI de novembro compartilhado por um repórter da ProPublica que atribuiu a notícia da prisão do primeiro-ministro israelense Benjamin Netanyahu (que não aconteceu) ao New York Times, sugerindo que a Apple Intelligence pode ser uma leitora errada das manchetes diárias.

Os resultados de pesquisa de IA do Google também foram enganados, trazendo à tona links fraudulentos e também incentivando os usuários a colar queijo na pizza e comer pedras.

Berthier afirmou: “A Lei Europeia de IA – apesar de ser a legislação mais avançada do mundo nesta área – não classificou as IA geradoras de informação como sistemas de alto risco, deixando um vazio jurídico crítico. Esta lacuna deve ser preenchida imediatamente.”

O Registro entrou em contato com a Apple para saber o que ela poderia fazer para resolver o problema de sua IA tirar conclusões precipitadas sobre as notícias, e a RSF para ver se recebeu notícias da Apple, mas também não recebemos resposta. ®

Fonte