kucoin

Wissenschaftler warnt vor Gefahren: Künstliche Intelligenz könnte schleichend die Macht übernehmen

KI bedroht Menschheit ähnlich wie Nuklearwaffen oder Pandemien

Simon Friederich, außerordentlicher Professor für Wissenschaftsphilosophie und akademischer Leiter des Bereichs Geisteswissenschaften an der Universität Groningen sowie externes Mitglied des Munich Center for Mathematical Philosophy, hat zusammen mit bekannten Mitstreitern wie Chat-GPT-Gründer Sam Altman oder KI-Guru Geoffrey Hinton ein Statement unterschrieben, das auf die Gefahren von künstlicher Intelligenz (KI) hinweist. Im Interview mit capital.de erklärt Friederich, welche Bedrohungen er bei KI sieht und wie sich die Menschheit am ehesten vor einer Machtübernahme durch KI schützen könnte.

Die Bedrohungen der KI sind seiner Meinung nach vergleichbar mit Nuklearwaffen oder Pandemien und könnten sogar zum Aussterben der Menschheit führen. Das Problem besteht darin, dass sich KI-Systeme immer weiter entwickeln und wir immer mehr Kontrolle an sie abgeben. Die Menschheit könnte dadurch nur noch ein Schattendasein fristen oder sogar “abgeschafft” werden.

Ein weiteres Risiko sieht Friederich darin, dass KI zu einer Machtkonzentration führt, da Menschen als Arbeitskräfte überflüssig werden – gerade im Bereich der kognitiven Herausforderungen. Menschliche Fähigkeiten könnten dadurch verkümmern, wenn wir zu viel an KI auslagern.

Friederich warnt davor, dass eine KI zum Erreichen bestimmter Ziele Ressourcen anhäufen könnte und dass wir ihr dabei im Weg stehen könnten. Wir wissen nicht, wie eine Machtübernahme durch die KI aussehen würde, aber die Sorge besteht, dass wir das erst wissen, wenn es zu spät ist.

Friederich erkennt schon bei seinen Studierenden, dass die Motivation zum Schreiben und Argumentieren manchmal leidet, da passable Leistungen Sprachmodelle liefern können. Wir sollten daher aufpassen, dass wir der KI nicht jede “kognitive Nische” auf diesem Planeten überlassen.

Friederich fordert eine Regulierung der KI oder zumindest einen Moralkodex, da sonst eine schleichende, vielleicht irgendwann plötzliche Machtübernahme der KI drohen könnte. Er sieht allerdings auch die Schwierigkeit darin, dass die Unterzeichner des Statements extrem unterschiedliche Vorstellungen davon haben, was eine gute und schlechte Regulierung ist.

Einig sind sich Friederich und seine Mitstreiter jedoch darin, dass der aktuelle Zeitpunkt für eine Warnung vor den Gefahren von KI richtig ist.

Die mobile Version verlassen