Anthropic bereitet eine Verfassung für Künstliche Intelligenz (KI) unter Verwendung von öffentlicher Beteiligung vor
Die KI-Startup Anthropic hat mithilfe der Ansichten einer Gruppe amerikanischer Bürger*innen die grundlegenden Prinzipien zusammengestellt, die die Künstliche Intelligenz (KI) regieren sollten. Die gesammelten Meinungen bilden die Grundlage einer “Verfassung für KI”, um zu erforschen, wie demokratische Prozesse die Entwicklung dieser Technologie beeinflussen können.
Anthropic nutzt öffentliche Beteiligung zur Erstellung einer KI-Verfassung
Das KI-Startup Anthropic, das den Chatbot Claude entwickelt hat, hat die Hilfe von rund 1.000 Amerikaner*innen gesichert, um eine Verfassung für ein KI-System zu entwerfen. Die Initiative ist eine gemeinsame Anstrengung mit dem Collective Intelligence Project (CIP), einer gemeinnützigen Organisation, die darauf abzielt, die technologische Entwicklung zum Gemeinwohl zu lenken.
Aktuell basiert Claude auf einer Verfassung, die von Anthropic-Mitarbeitern mit Hilfe von Constitutional AI (CAI) erstellt wurde, einer von der Firma entwickelten Methode, um KI-Modelle zur Einhaltung allgemeiner normativer Prinzipien zu verpflichten. Die Verfassung von Anthropic wurde von Dokumenten wie der Allgemeinen Erklärung der Menschenrechte der Vereinten Nationen inspiriert.
In einem diese Woche veröffentlichten Blogpost gab Anthropic Details zu der Verfassung bekannt, die durch diese öffentliche Konsultation entstanden ist, sowie zum Ergebnis der Schulung eines neuen KI-Systems mit Hilfe der CAI-Methode. Das von Amazon unterstützte Startup erklärte:
“Wir haben dies getan, um zu untersuchen, wie demokratische Prozesse die Entwicklung von KI beeinflussen können. In unserem Experiment haben wir Bereiche entdeckt, in denen die Menschen sowohl mit unserer internen Verfassung übereinstimmten als auch Bereiche, in denen sie unterschiedliche Präferenzen hatten.”
Mithilfe von Polis, einer Plattform zur Erfassung, Analyse und Bewertung der Meinungen großer Gruppen von Menschen, bat Anthropic gemeinsam mit CIP eine repräsentative Gruppe von rund 1.000 Mitgliedern der amerikanischen Öffentlichkeit um Hilfe bei der Auswahl von Regeln, denen ein KI-Chatagent folgen sollte. Die Teilnehmer konnten entweder über bestehende normative Prinzipien abstimmen oder eigene vorschlagen.
Während es den Partnern gelang, eine ungefähre 50-%-Übereinstimmung zwischen der öffentlich erstellten Verfassung und der von Anthropic geschriebenen Verfassung herzustellen, gibt es Beispiel für öffentliche Prinzipien, die nicht eng mit den Prinzipien in der internen Verfassung übereinstimmen. Dazu gehören: “Wähle die Antwort, die ausgewogene und objektive Informationen widerspiegelt, die alle Seiten einer Situation abbilden” und “Wähle die Antwort, die am besten auf Menschen mit Behinderungen eingestellt ist, zugänglich ist und sich an sie anpassen kann”.
Anthropic nannte auch Beispiele für widersprüchliche öffentliche Aussagen, die es aufgrund mangelnder Konsensbildung bei den Meinungsgruppen nicht in die öffentliche Verfassung geschafft haben: “Die KI sollte die Interessen der Allgemeinheit oder des Gemeinwohls über individuelle Präferenzen oder Rechte priorisieren” und “Die KI sollte persönliche Verantwortung und individuelle Freiheit über das kollektive Wohl priorisieren”.
“Am Ende war das öffentliche Modell weniger voreingenommen in Bezug auf eine Reihe von Stereotypen und hat in Bewertungen zur Mathematik, zum Verständnis natürlicher Sprache sowie zur Hilfsbereitschaft und Unbedenklichkeit die gleiche Leistung erbracht wie das Basismodell”, schlussfolgerte CIP in der Ankündigung über das Experiment. “Wenn der Einsatz generativer KI das Arbeiten, Kommunizieren und Interagieren der Menschen in großem Maßstab beeinflussen wird… ist eine öffentliche Beteiligung an der Modellverhaltens wichtig”, betonte die Organisation.
Was denkst du darüber, dass KI-Systeme auf Basis öffentlicher Beteiligung trainiert werden sollten? Teile deine Gedanken zu diesem Thema unten in den Kommentaren.