Im Gastblog schreibt Sarah Spiekermann, warum sich KI-Anbieter ehrlich der Verantwortung stellen sollten, die sie jetzt für die Gesellschaft tragen.

1.377 Experten haben einen offenen Brief des Future of Life Institute unterzeichnet, um die gigantischen KI-Experimente wie ChatGPT oder GPT4 für eine sechsmonatige "Ethik-Diät" zu unterbrechen. Ziel des Aufrufs ist, zunächst über die menschlichen und sozialen Auswirkungen der Technologie nachzudenken und Strategien zur Risikominimierung zu definieren, bevor es zu einem massenhaften Rollout kommt. Auch Elon Musk, Steve Wozniak und viele andere IT-Größen haben den Aufruf unterschrieben.

Lösungswahn oder Chance?

Auf den ersten Blick wirkt dieser Aufruf wie "Solutionism": Eine potenziell unüberwindbare Herausforderung soll in ein paar Monaten "gefixt" sein, so als könnte man den Klimawandel in drei Jahren lösen. Trotzdem macht es Sinn, sich intensiv mit den gesellschaftlichen Herausforderungen auseinanderzusetzen, die auf die Menschheit angesichts dieser neuen KI-Systeme zukommen. Es müssen wertorientierte, soziale und nachhaltige Versionen der Technologie gewährleistet werden. Das muss politisch eingefordert werden.

Ein standardkonformes Vorgehen für KI-Anbieter wäre ein "wertorientiertes" System.
Foto: IMAGO/Alexander Limbach

Allerdings sollten OpenAI (Microsoft), Google und andere Hersteller dieser KI-Systeme solche Ethikprojekte nicht auf die ihnen übliche Art und Weise angehen: indem sie einige lobbyfreundliche Expertinnen und Experten anheuern, die ihnen sagen, was jeder bereits weiß: dass diese KI-Systeme datenschutzkonform und transparent, sicher und zuverlässig sein müssen. Das wäre viel zu einfach! Stattdessen sollten die großen KI-Hersteller sich ehrlich der Verantwortung stellen, die sie jetzt für die Gesellschaft tragen. Und das bedeutet, dass sie ihre KI-Systeme anhand des einzigen weltweit anerkannten Standards für ethisches IT-Systemdesign prüfen oder sogar zertifizieren lassen. Diese wurden 2021 und 2022 von den weltweit führenden technischen Normungsorganisationen ISO und IEEE veröffentlicht; genau genommen als ISO/IEEE 24748-7000 "A Model Process for Addressing Ethical Concerns during System Design". Über 200 Experten aus der ganzen Welt waren an der Entwicklung dieses Standards beteiligt. IEEE stellt das Prozessrahmenwerk seit 2023 kostenlos zur Nutzung zur Verfügung. Mit TÜV-Süd wurde eine Zertifizierung von IEEE-7000-Standards vereinbart.

Wie würde Value-based Engineering mit ISO/IEEE 24748-7000 vorgehen?

Laut Standard müsste ein KI-System mit GPT4 in drei Phasen untersucht werden:

  • Zunächst müsste das Betriebskonzept ("concept of operations") von GPT4 (inklusive der Datenquellen) erfasst und im Hinblick auf verschiedene Anwendungskontexte analysiert werden, in denen es Schaden anrichten kann, aber auch positive Potenziale birgt (zum Beispiel Bildung, Kunst und Design, Gesundheit, Medienkommunikation und so weiter). Dazu müssten unparteiische Interessengruppen (Stakeholder) berufen werden, die im Weiteren die "Ethik-Diät" auch betreuen und Maßnahmen freigeben.
  • Zweitens würden das Projektteam und die Stakeholder-Gruppen eine Phase der Werteerhebung durchlaufen, in der das Betriebskonzept der KI aus ethischer Sicht analysiert wird: Welchen Schaden und Nutzen könnte die KI in verschiedenen Kontexten verursachen? Welche Auswirkungen auf die Tugend oder den persönlichen Charakter könnten sich aus einer intensiven Nutzung ergeben? Würden Kinder zum Beispiel aufhören zu lernen, wenn sie sehen, dass die KI ihnen sowieso gleich alle Ergebnisse liefert?
  • Und drittens: Welche hohen universellen Wertprinzipien wollen die jeweiligen Kulturen a priori schützen, welche Menschenrechte zum Beispiel? Sobald diese schwierigen ethischen Fragen beantwortet und künftige KI-Werte identifiziert und priorisiert sind, werden für alle diese Werte sogenannte Ethical Value Requirements (EVRs) festgelegt. Dabei handelt es sich um Kriterien, denen die KI gerecht werden muss. Welche technischen und organisatorischen Maßnahmen müssen ergriffen werden und welche Qualitätsstandards dabei erreicht werden? Die technisch adressierbaren ethischen Wertanforderungen würden dann in sogenannte Systemanforderungen übersetzt, die den Ingenieuren zur Implementierung übergeben werden. Letztere kann von Version zu Version erfolgen.

Das Ergebnis dieses standardkonformen Vorgehens für Microsoft, Google oder jeden anderen KI-Anbieter wäre ein "wertorientiertes" System anstelle eines "disruptiven" Systems. (Sarah Spiekermann, 30.3.2023)