Kann ein Kinderspielzeug von einem Tag auf den anderen gefährlich werden? Ähnlich verhält es sich mit der Künstlichen Intelligenz (KI), die anfangs als harmloser Spielgefährte der Technik galt und sich nun anschickt, die Welt zu erobern. Man fühlt sich unweigerlich an das Unbehagen erinnert, das sich einst bei der ersten Vorführung der Dampfmaschine einstellte.

Aber jetzt stehen wir vor dem Unbekannten, der Superintelligenz – einer KI, die so intelligent sein könnte, dass sie das menschliche Denken weit übertrifft. Die Schöpfer der KI, darunter auch OpenAI, haben erkannt, dass wir mit dem heutigen Stand der Technik kaum in der Lage sind, eine solche Superintelligenz zu kontrollieren. Deshalb startet OpenAI nun eine Initiative, um die Sicherheit der Künstlichen Intelligenz für die Menschheit zu gewährleisten.

Der Aufstieg der Superintelligenz

Es klingt wie aus einem Science-Fiction-Roman, aber die Realität könnte die Fiktion bald überholen.

„Superintelligenz wird die einflussreichste Technologie sein, die die Menschheit je erfunden hat, und könnte uns helfen, viele der weltweit wichtigsten Probleme zu lösen. Aber die immense Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zum Aussterben der Menschheit führen“, schrieben der OpenAI-Mitbegründer Ilya Sutskever und der Leiter der OpenAI-Abteilung für Zukunftsforschung, Jan Leike, in einem Blogbeitrag. „Derzeit haben wir keine Möglichkeit, eine potenziell superintelligente KI zu steuern oder zu kontrollieren und sie daran zu hindern, ihren eigenen Weg zu gehen.“

Microsoft betritt das Spiel

Microsoft, einer der Technologiegiganten unserer Zeit, hat es sich zur Aufgabe gemacht, dieses drohende Problem zu lösen. Microsoft hat angekündigt, in den nächsten vier Jahren 20 Prozent seiner Rechenleistung in die Entwicklung einer Lösung zu investieren. Das Unternehmen stellt auch ein neues Forschungsteam zusammen, das „Superalignment Team“, das sich ausschließlich mit der Lösung dieses Problems befassen wird.

Globale Debatte und Reaktion

Die möglichen Gefahren der Künstlichen Intelligenz werden derzeit in der Forschung und in der Öffentlichkeit intensiv diskutiert:

  • Die EU hat sich bereits auf einen Gesetzentwurf zur Regulierung von KI geeinigt, den „AI Act“.
  • In den USA wird nach dem Vorbild der EU über eine Einstufung von KI-Anwendungen in Risikoklassen diskutiert, von der die Auflagen für die Unternehmen abhängen.
  • Uno-Generalsekretär António Guterres sieht die Zukunft der künstlichen Intelligenz kritisch. Er schlägt vor, eine von den Uno-Staaten gemeinsam geführte Regulierungsbehörde einzusetzen.
  • Im März hatte eine Gruppe von KI-Branchenführern und -Experten einen offenen Brief unterzeichnet, in dem sie auf mögliche Risiken von KI für die Gesellschaft hinwiesen und eine sechsmonatige Pause bei der Entwicklung von Systemen forderten, die leistungsfähiger seien als OpenAIs GPT-4.
  • Im Mai hatten Hunderte Expertinnen und Experten vor künstlicher Intelligenz gewarnt: „Es sollte global priorisiert werden, das Risiko der Auslöschung durch KI zu verringern – auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft, wie etwa Pandemien und Nuklearkrieg“, lautet es übersetzt. Zu den Unterzeichnern zählen Sam Altman, CEO von OpenAI, Demis Hassabis, Chef von Google DeepMind, sowie die mit dem Turing Award ausgezeichneten KI-Forscher Geoffrey Hinton und Yoshua Bengio.

Fazit

Wir befinden uns an einem kritischen Punkt in der Geschichte der künstlichen Intelligenz. Die Entwicklung von KI-Systemen schreitet rasch voran, und die Frage der Kontrolle dieser Systeme wird immer drängender. Die jüngsten Bemühungen von Unternehmen wie OpenAI und Microsoft sind ein ermutigendes Zeichen dafür, dass die Industrie die potenziellen Risiken ernst nimmt und sich bemüht, wirksame Kontrollmaßnahmen zu entwickeln.

Die unbändige Kraft der Superintelligenz steht vor uns, und es ist an der Zeit, Verantwortung für sie zu übernehmen. Wie wir sie zähmen und formen, liegt in unseren Händen und wird darüber entscheiden, ob sie ein Werkzeug oder eine Bedrohung für die Menschheit wird.

Quelle: Der Spiegel, OPENAI

Lesen Sie auch: Wann man ChatGPT nutzen kann, und wann nicht! Ein Faktencheck


Wenn dir dieser Beitrag gefallen hat und du die Bedeutung fundierter Informationen schätzt, werde Teil des exklusiven Mimikama Clubs! Unterstütze unsere Arbeit und hilf uns, Aufklärung zu fördern und Falschinformationen zu bekämpfen. Als Club-Mitglied erhältst du:

📬 Wöchentlichen Sonder-Newsletter: Erhalte exklusive Inhalte direkt in dein Postfach.
🎥 Exklusives Video* „Faktenchecker-Grundkurs“: Lerne von Andre Wolf, wie du Falschinformationen erkennst und bekämpfst.
📅 Frühzeitiger Zugriff auf tiefgehende Artikel und Faktenchecks: Sei immer einen Schritt voraus.
📄 Bonus-Artikel, nur für dich: Entdecke Inhalte, die du sonst nirgendwo findest.
📝 Teilnahme an Webinaren und Workshops: Sei live dabei oder sieh dir die Aufzeichnungen an.
✔️ Qualitativer Austausch: Diskutiere sicher in unserer Kommentarfunktion ohne Trolle und Bots.

Mach mit und werde Teil einer Community, die für Wahrheit und Klarheit steht. Gemeinsam können wir die Welt ein bisschen besser machen!

* In diesem besonderen Kurs vermittelt dir Andre Wolf, wie du Falschinformationen erkennst und effektiv bekämpfst. Nach Abschluss des Videos hast du die Möglichkeit, dich unserem Rechercheteam anzuschließen und aktiv an der Aufklärung mitzuwirken – eine Chance, die ausschließlich unseren Club-Mitgliedern vorbehalten ist!


Hinweise: 1) Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur Auseinandersetzung der Sache mit dem Thema.
2) Einzelne Beiträge entstanden durch den Einsatz von maschineller Hilfe und wurde vor der Publikation gewissenhaft von der Mimikama-Redaktion kontrolliert. (Begründung)