Nem mesmo a Apple está segura contra alucinações de inteligência artificial. Vimos isso acontecer com bastante frequência com o Gemini do Google (como a plataforma que diz aos usuários para colocarem cola na pizza), a Microsoft e o ChatGPT da OpenAI.
A Apple ainda tem um aviso tentando evitar que sua plataforma Apple Intelligence tenha alucinações, mas isso não significa que não vai errar em algumas coisas. Agora, Notícias da BBC relata que a ONG jornalística Repórteres Sem Fronteiras apelou à Apple para parar de usar o resumo de notificações.
Este recurso foi introduzido no iOS 18.1 e aprimorado no iOS 18.2. Com ele, a Apple resume todas as suas notificações em uma única pilha. Com isso, você pode acompanhar seus grupos do iMessage, notificações X e assim por diante muito rapidamente.
No entanto, os usuários já perceberam que de vez em quando algo dá errado. A melhor jornalista Joanna Stern uma vez ficou surpresa ao descobrir que sua esposa tinha marido (a Apple Intelligence presumiu que ela estava falando de um homem, não de uma mulher), e outras pessoas compartilharam imagens não tão sensíveis de rompimentos por meio da Apple Intelligence.
Infelizmente, parece que as alucinações da Apple Intelligence se tornaram mais frequentes, como aconteceu com o recente caso Luigi Mangione. Homem acusado de assassinar um CEO de uma seguradora de saúde, a plataforma notificou os usuários (por meio de notificações push da BBC News) que ele havia se matado na prisão, o que não aconteceu.
A publicação escreve:
A BBC fez uma reclamação para a gigante da tecnologia dos EUA depois que a Apple Intelligence, que usa inteligência artificial (IA) para resumir e agrupar notificações, criou falsamente uma manchete sobre o suspeito de assassinato Luigi Mangione. O resumo baseado em IA fez parecer falsamente que a BBC News havia publicado um artigo alegando que Mangione, o homem acusado do assassinato do CEO do seguro de saúde, Brian Thompson, em Nova York, havia se matado com um tiro. Ele não fez isso.
Além disso, os Repórteres Sem Fronteiras divulgaram uma declaração de que este incidente prova que “os serviços generativos de IA ainda são demasiado imaturos para produzir informações fiáveis para o público”. E continua: “RSF pede à Apple que aja com responsabilidade removendo esse recurso. A produção automatizada de informações falsas atribuídas a um meio de comunicação social é um golpe para a credibilidade do meio de comunicação e um perigo para o direito do público a informações fiáveis sobre assuntos atuais.”
A Apple não comentou sobre esse assunto. Ainda assim, futuras alucinações da Apple Intelligence podem causar danos a outras pessoas, espalhar notícias falsas ou até mesmo mudar o mercado.
É provável que a Apple continue melhorando o algoritmo do Apple Intelligence. No entanto, poderia ser mais seguro se a empresa evitasse que sua plataforma de IA resumisse as notícias de notificação por enquanto.
BGR avisaremos você se tivermos notícias da Apple.