2025-01-08 14:36:00
Jaap Ariens |. Nurfoto |
Die Funktionen der künstlichen Intelligenz des iPhone generieren Fake-News-Warnungen und geben Anlass zur Besorgnis über die Fähigkeit der Technologie, Fehlinformationen zu verbreiten.
Letzte Woche hat Apples kürzlich eingeführte Funktion, die KI verwendet, um Benutzerbenachrichtigungen zusammenzufassen, falsch zusammengefasste Benachrichtigungen der BBC News-App über den Artikel des Senders über das Halbfinale der PDC World Darts Championship verschickt, was dazu führte, dass der britische Dartspieler Luke Littler fälschlicherweise behauptete, das Halbfinale der PDC World Darts Championship gewonnen zu haben Meisterschaft. .
Dieser Vorfall ereignete sich am Tag vor dem eigentlichen Turnierfinale, das Littler gewann.
Und nur wenige Stunden nach diesem Vorfall gab eine weitere vom KI-System des Technologieriesen, Apple Intelligence, generierte Meldung bekannt, dass sich Tennislegende Rafael Nadal fälschlicherweise als schwul geoutet hatte.
Die BBC versucht seit etwa einem Monat, Apple dazu zu bringen, das Problem zu lösen. britischer nationaler Sender Ich habe im Dezember eine Beschwerde bei Apple eingereicht. Nachdem seine KI-Fähigkeiten eine falsche Schlagzeile erzeugten, die auf Luigi Mangione hindeutete; Mann nach Mord verhaftet Brian Thompson, CEO der New Yorker Krankenversicherung UnitedHealthcare, hat sich erschossen, aber dazu ist es nie gekommen.
Apple reagierte nicht sofort auf eine Anfrage von CNBC nach einem Kommentar. Am Montag teilte Apple der BBC mit, dass es an einem Update arbeite, das das Problem beheben solle, indem klargestellt werde, wann Apple Intelligence für den in Benachrichtigungen angezeigten Text verantwortlich sei. Generierte Nachrichtenbenachrichtigungen scheinen jetzt direkt von der Quelle zu kommen.
„Apple Intelligence-Funktionen befinden sich in der Betaphase und wir verbessern sie kontinuierlich auf der Grundlage des Benutzerfeedbacks“, sagte das Unternehmen in einer Erklärung, die der BBC mitgeteilt wurde. Apple fügte hinzu, dass es Benutzer dazu ermutigt, Bedenken zu melden, wenn sie eine „unerwartete Benachrichtigungszusammenfassung“ sehen.
Die BBC ist nicht die einzige Nachrichtenorganisation, die von den ungenauen Zusammenfassungen der Nachrichtenmeldungen von Apple Intelligence betroffen ist. Im November verschickte die Funktion KI-zusammengefasste Benachrichtigungen Der israelische Ministerpräsident Benjamin Netanyahu behauptet fälschlicherweise, er sei verhaftet worden.
Auf den Fehler machte Ken Schwenke, leitender Redakteur der investigativen Berichterstattungsseite ProPublica, in der Social-Media-App BlueSky aufmerksam.
CNBC bat die BBC und die New York Times um einen Kommentar zu Apples vorgeschlagener Lösung für das Problem der Fehlinformationen in seinen KI-Fähigkeiten.
Problem mit KI-Fehlinformationen
Apple macht Werbung Übersicht über KI-generierte Benachrichtigungen Dies dient als effektive Möglichkeit, die Benachrichtigungsvorschauen der Nachrichten-App zu gruppieren und sie in einer einzigen Benachrichtigung auf dem Sperrbildschirm des Benutzers umzuschreiben.
Es ist eine Apple-Funktion sagen soll Benutzern helfen, Benachrichtigungen nach wichtigen Details zu durchsuchen und so die überwältigende Menge an Updates reduzieren, an die viele Smartphone-Benutzer gewöhnt sind.
Dies führte jedoch zu dem, was KI-Experten als „Halluzinationen“ bezeichnen – von der KI erzeugte Reaktionen, die falsche oder irreführende Informationen enthielten.
„Ich vermute, dass Apple nicht der Einzige ist, der Probleme mit KI-generierten Inhalten hat. Wir sehen bereits viele Beispiele von KI-Diensten, die selbstbewusst Unwahrheiten oder sogenannte ‚Illusionen‘ kommunizieren“, sagte Ben Wood, leitender Marktanalyst. Das Forschungsunternehmen CCS Insights sagte gegenüber CNBC.
Im Fall von Apple versucht die KI, Benachrichtigungen zu konsolidieren und zu verdichten, um nur eine grundlegende Zusammenfassung der Informationen anzuzeigen, indem sie Wörter auf eine Weise kombiniert, die das Ereignis ungenau charakterisiert, es aber selbstbewusst als Tatsache darstellt.
„Apple hat die Komplexität des Versuchs hinzugefügt, Inhalte in sehr kurze Zusammenfassungen zu komprimieren, was letztendlich die falsche Botschaft vermittelte“, fügte Wood hinzu. „Apple wird zweifellos versuchen, dieses Problem so schnell wie möglich anzugehen, und die Konkurrenten werden genau beobachten, wie Apple reagiert.“
Generative KI basiert auf riesigen Datenmengen, auf denen die zugrunde liegenden großen Sprachmodelle trainiert werden, um die bestmöglichen Antworten auf von Benutzern eingegebene Fragen und Eingabeaufforderungen zu finden.
Manchmal kennt die KI die Antwort nicht. Da es jedoch so programmiert ist, dass es immer Antworten auf Benutzeraufforderungen anzeigt, kann es Fälle geben, in denen die KI effektiv lügt.
Es ist nicht genau klar, wann eine Lösung für Apples Fehler bei der Benachrichtigungszusammenfassung behoben wird. Der iPhone-Hersteller sagte, es werde voraussichtlich in den „kommenden Wochen“ eintreffen.