2024-12-13 14:00:00
OpenAI CEO Sam Altman Ich freue mich darauf AGI, oder allgemeine künstliche Intelligenz– Etwa im Jahr 2027 oder 2028 wird eine KI entstehen, die den Menschen bei den meisten Aufgaben übertreffen kann. Elon Musks Vorhersagen lauten: 2025 oder 2026und das hat er behauptet Er sagte: „Ich habe angesichts der Bedrohung durch KI den Schlaf verloren.“
Aber Vorhersagen, dass KI auf menschlicher Ebene unmittelbar bevorsteht, gibt es schon seit mehr als 50 Jahren. Am Anfang K.I. Diese Vorhersagen waren nicht nur zeitlich falsch, sondern auch in tieferer und klarerer Hinsicht. Es stellt sich heraus, dass die spezifischen KI-Ansätze, die Experten in der Vergangenheit in Betracht gezogen haben, einfach nicht möglich sind, um Intelligenz auf menschlichem Niveau zu erreichen. Ähnlich, Einschränkungen Trotz des aktuellen Stands der KI sind die meisten KI-Forscher zu der Ansicht gelangt, dass der einfache Aufbau größerer und leistungsfähigerer Chatbots nicht zu AGI führt.
Fortgeschrittene KI ist sicherlich ein langfristiges Anliegen, das Forscher untersuchen sollten. Aber auch im Jahr 2025 werden KI-Risiken wie in der Vergangenheit weiterhin durch Missbrauch entstehen.
Dabei kann es sich um unbeabsichtigte Missbräuche handeln, etwa um die übermäßige Abhängigkeit von Anwälten von KI. Beispielsweise wurden nach der Veröffentlichung von ChatGPT viele Anwälte mit Sanktionen belegt, weil sie künstliche Intelligenz zur Generierung falscher Gerichtsbesprechungen eingesetzt hatten, ohne sich der Tendenz von Chatbots bewusst zu sein, diese zu fabrizieren. In Britisch-KolumbienRechtsanwalt Chung Ke wurde zur Zahlung von Honoraren an die gegnerischen Anwälte verurteilt, weil er in seiner Klage einen fiktiven KI-generierten Fall einbezogen hatte. In New YorkSteven Schwartz und Peter LoDuca wurden wegen falscher Zitate mit einer Geldstrafe von 5.000 US-Dollar belegt. In ColoradoZakaria Krabill wurde für ein Jahr suspendiert, weil sie eine mit ChatGPT erstellte fiktive Rechtsprechung verwendet und einen „Justizpraktikanten“ für den Fehler verantwortlich gemacht hatte. Die Liste wächst rasant.
Andere Missbräuche sind vorsätzlich. Januar 2024, sexuell eindeutig Taylor Swift Deepfake Social-Media-Plattformen wurden überflutet. Diese Bilder wurden mit dem KI-Tool Designer von Microsoft erstellt. Das Unternehmen verfügte über Schutzmaßnahmen, um die Produktion von Bildern von echten Menschen zu vermeiden, aber die falsche Schreibweise von Swifts Namen reichte aus, um die Schutzmaßnahmen zu umgehen. Microsoft hat seitdem Repariert dieser Fehler. Aber Taylor Swift ist nur die Spitze des Eisbergs und nicht einvernehmliche Deepfakes sind weit verbreitet. Ein Grund dafür ist die Verfügbarkeit von Open-Source-Tools zur Erstellung von Deepfakes. Die derzeit weltweit erarbeiteten Gesetze zielen darauf ab, Deepfakes zu bekämpfen und so den Schaden zu begrenzen. Ob es wirksam ist, bleibt abzuwarten.
Im Jahr 2025 wird es noch schwieriger sein, das Echte vom Fake zu unterscheiden. Die Wiedergabetreue von KI-generiertem Audio, Text und Bildern ist unglaublich, und dann kommt das Video. Dies könnte zu einer „Lügnerdividende“ führen. Das bedeutet, dass Menschen in Machtpositionen Beweise für ihr eigenes Fehlverhalten abstreiten und behaupten, sie seien falsch. Tesla im Jahr 2023 behauptet Das Video von Elon Musk aus dem Jahr 2016 war möglicherweise ein Deepfake als Reaktion auf Vorwürfe, der CEO habe die Sicherheit des Autopilot-Systems von Tesla überbewertet und so einen Unfall verursacht. Der indische Politiker behauptete, dass ein Audioclip, in dem er Korruption in seiner Partei zugab, manipuliert worden sei (der Ton in mindestens einem seiner Clips sei manipuliert worden). Verifiziert (als authentisch von der Presse). Zwei Angeklagte der Unruhen vom 6. Januar behaupteten außerdem, dass die Videos, in denen sie auftraten, Deepfakes seien. Beide waren wurde wegen einer Straftat verurteilt.
Unterdessen nutzen Unternehmen die gesellschaftlichen Turbulenzen, um grundsätzlich fragwürdige Produkte unter dem Label „KI“ zu vermarkten. Wenn solche Tools verwendet werden, um Menschen zu kategorisieren und daraus resultierende Entscheidungen über sie zu treffen, könnte dies furchtbar schiefgehen. Zum Beispiel das Personalvermittlungsunternehmen Retorio beanspruchen Die KI behauptet, anhand von Videointerviews die Eignung eines Kandidaten für eine Stelle vorherzusagen. Eine Studie ergab jedoch, dass sich das System durch das Vorhandensein einer Brille oder das einfache Ersetzen eines einfachen Hintergrunds durch ein Bücherregal täuschen lässt Zusammenhänge.
KI wird mittlerweile auch eingesetzt, um Menschen wichtige Lebenschancen in Bereichen wie Gesundheitswesen, Bildung, Finanzen, Strafjustiz und Versicherungen zu entziehen. In den Niederlanden setzten die niederländischen Steuerbehörden KI-Algorithmen ein, um Personen zu identifizieren, die Kindeswohlbetrug begehen. Das fälschlicherweise beschuldigt Tausende Eltern fordern oft Rückzahlungen in Höhe von mehreren zehntausend Euro. Daraufhin traten der Premierminister und sein gesamtes Kabinett zurück.
Im Jahr 2025 werden KI-Risiken von dem ausgehen, was Menschen mit KI tun, und nicht von dem, was die KI allein tut. Hierzu zählen auch Fälle wie: Scheinbar Funktioniert gut und genießt übermäßiges Vertrauen (Anwälte, die ChatGPT verwenden). Wenn es gut funktioniert, aber missbraucht wird (nicht einvernehmliche Deepfakes und Lügendividenden). Und wenn es einfach nicht seinen Zweck erfüllt (wenn es den Menschen Rechte verweigert). Die Minderung dieser Risiken ist eine große Herausforderung für Unternehmen, Regierungen und die Gesellschaft. Es ist schwer genug, ohne sich Gedanken über Science-Fiction zu machen.
Aktualisiert am 16. Dezember 2024, 9:15 Uhr ET: Dieser Artikel wurde aktualisiert, um die im Redaktionsprozess geänderte Sprache klarzustellen.