Das Team für Ethics and Society bei Microsoft gibt es nicht mehr.

Foto: Lucy Nicholson, Reuters

Microsoft ist derzeit dabei, textgenerierende künstliche Intelligenz in eine Vielzahl der hauseigenen Produkte einzubauen – von Teams bis Word und Skype. Ab diesem Monat wird das Unternehmen den von Microsoft selbst maßgeblich befeuerten KI-Boom jedoch ohne ein wesentliches Team fortsetzen. Das Team für Ethik und Gesellschaft sollte intern sicherstellen, dass diese KI-Funktionen den ethischen Standards von Microsoft entsprechen.

Microsoft hat sein gesamtes Ethik- und Gesellschaftsteam innerhalb des KI-Sektors des Unternehmens gestrichen. Dies geschah im Zuge der laufenden Entlassungen, die insgesamt 10.000 Mitarbeitende betreffen sollen, wie "Platformer" berichtet. Die zweiten "Wächter" über die KI bleiben aber im Haus. Das Büro für verantwortungsbewusste KI (Office of Responsible AI) soll dem Bericht zufolge bestehen bleiben.

Team entwickelte Rollenspiel über die Gefahren der KI

"Microsoft hat sich verpflichtet, KI-Produkte und -Erlebnisse sicher und verantwortungsbewusst zu entwickeln. Dazu investiert das Unternehmen in Mitarbeiter, Prozesse und Partnerschaften, die diesem Aspekt Priorität einräumen", teilte das Unternehmen in einer Erklärung mit. "In den letzten sechs Jahren haben wir die Anzahl der Mitarbeiter in unseren Produktteams und im Office of Responsible AI erhöht, die zusammen mit uns allen bei Microsoft dafür verantwortlich sind, dass wir unsere KI-Prinzipien in die Praxis umsetzen. ... Wir schätzen die bahnbrechende Arbeit, die das Team für Ethik und Gesellschaft geleistet hat, um uns auf unserem Weg zu verantwortungsvoller KI zu unterstützen", so der Konzern.

Dem widersprechen laut "Platformer" nun gekündigte Mitarbeiter. Laut diesen spiele das Ethik- und Gesellschaftsteam eine entscheidende Rolle, indem es sicherstellt, dass sich die KI-Prinzipien des Unternehmens auch tatsächlich in der Gestaltung der ausgelieferten Produkte widerspiegeln.

Ein Vermächtnis des Teams ist unter anderem ein Rollenspiel mit dem Namen "Judgement Call". Dieses hilft Designerinnen und Designern dabei, sich potenzielle Schäden vorzustellen, die durch KI entstehen könnten. Es war Teil eines größeren "Toolkits für verantwortungsvolle Innovation", das das Team öffentlich zugänglich machte. (red, 16.3.2023)