Von Antwortvorschlägen bis Routenberechnung: KI kommt bereits in vielen Bereichen zum Einsatz. Nur wird sie nicht immer als solche wahrgenommen.

Foto: Getty Images/iStockphoto

Seit 2007 forscht Stefan Woltran im Bereich künstlicher Intelligenz (KI) an der Technischen Universität Wien. Warum er der Euphorie rund um ChatGPT und KI auch skeptisch gegenübersteht und wie er KI-Tools als Lehrender einsetzt, erzählt der 48-Jährige im Gespräch mit dem STANDARD.

STANDARD: KI und ChatGPT sind derzeit in aller Munde – ist der Hype darum berechtigt?

Woltran: KI gibt es in vielen Lebensbereichen schon lange, zum Beispiel wenn die schnellste Route von einem Navi berechnet wird. Das verbinden aber viele nicht mehr unbedingt mit dem Schlagwort künstliche Intelligenz. Durch ChatGPT ist KI jetzt das erste Mal für alle frei zugänglich, und das macht die Technologie greifbarer. Das wirft aber auch in vielen Bereichen Fragen nach einem Modus Operandi auf – vor allem in der Lehre, ob in der Schule oder auf der Universität.

STANDARD: Verstehen Sie die Sorge vieler Lehrkräfte und Professoren?

Woltran: Auf jeden Fall. Gleichzeitig finde ich Verbote nicht zielführend. Das Tool bietet nämlich auch viele Chancen. Zum Beispiel wenn ChatGPT dazu verwendet wird, Texte zu verbessern oder eine Unterstützung beim Lernen ist. Dafür müssen sich Lehrende der Herausforderung stellen, sich Strategien zu überlegen, wie sie damit umgehen wollen. Und das gelingt nur, wenn sie sich auch wirklich mit der Technologie befassen und sie verstehen.

Stefan Woltran beforscht KI seit 2007 an der TU Wien.
Foto: TU Wien

STANDARD: Wie gehen Sie als Lehrender mit KI-Tools um? Was erlauben Sie Ihren Studierenden?

Woltran: Bislang gibt es noch wenig Richtlinien, viele Dekaninnen und Dekane setzen sich aktuell damit auseinander. In der Lehre wird KI eingesetzt, um Untertitel bei Vorlesungsaufzeichnungen oder Transkripte zum Nachlesen zu erstellen. In meinem Fall prüfe ich das Wissen der Studierenden mit schriftlichen Prüfungen – dabei kann KI höchstens bei der Vorbereitung genutzt werden. Abschlussarbeiten werden zudem in enger Abstimmung betreut, und die Studierenden arbeiten an aktuellen und komplexen Forschungsfragen, also ist KI auch in diesem Fall wenig nützlich. Ob das Abstract, also die kurze Zusammenfassung der Arbeit auf Deutsch und Englisch, von der KI erstellt oder übersetzt wurde, ist mir eigentlich relativ egal – auch wenn das die Studierende schon selber können sollten.

STANDARD: Wäre es eine Option, KI-generierte Textabschnitte zu kennzeichnen?

Woltran: Einerseits halte ich Transparenz in dem Bereich für sehr wichtig. Man sollte auch immer wissen, ob man als Konsument mit einem Chatbot oder einem Menschen schreibt. Andererseits sind die Grenzen hier sehr fließend. Was ist, wenn ich einen Text generiere und daran herumbastele, mich selbst einbringe? Im Gegensatz zum wissenschaftlichen Zitieren geht es hierbei ja nicht um geistiges Eigentum, das ich kennzeichnen muss. Vielleicht gibt es aber bald neben einer Plagiatsprüfung auch einen KI-Check.

STANDARD: ChatGPT soll bald auch als Premiumversion verfügbar sein. Führen solche Entwicklungen zu weniger Chancengleichheit?

Woltran: Das ist eine essenzielle Frage. Meiner Meinung nach, müssten Regierungen mittelfristig gewährleisten, dass jede Person einen Gratiszugang zu solchen Tools hat. Sonst ist es – ähnlich wie bei Ghostwriting – ein Problem, wenn nur manche Studierende es sich leisten können, sich die Arbeit von einem KI-Tool erleichtern oder gar abnehmen zu lassen. Die nächste Frage ist, ob solche Tools überhaupt im privaten Sektor verortet sein sollten. Bei vielen solcher Fragestellungen hinken wir noch hinterher.

STANDARD: Wen sehen Sie jetzt in der Pflicht zu handeln?

Woltran: Es ist ganz viel Arbeit zu leisten, nicht nur von Informatikerinnen, sondern auch von Entscheidungsträgern und anderen Disziplinen. Derzeit fehlt es vielerorts an Basiswissen, und das macht nur ein nachträgliches Reagieren auf aktuelle Entwicklungen möglich und führt zu Gefahren, die wir bereits bei Social Media beobachten konnten. Das Problem ist, dass Software aktuell komplett ungeprüft veröffentlicht und verbreitet werden kann. Man stelle sich vor, Pharmakonzerne könnten einfach ohne Kontrollen Medikamente auf den Markt bringen – das wäre undenkbar. Meta kann den Reihungsalgorithmus ihrer Timelines beliebig umstellen und muss das nicht transparent machen. Es gibt keine Prüfstelle, bei der solche Änderungen vorab eingebracht und geprüft werden. Es bewegt sich zwar etwas auf europäischer Ebene, aber alles mit großer Verzögerung.

STANDARD: Wie sieht unser Alltag mit KI in 30 Jahren aus?

Woltran: Ich denke, dass die Digitalisierung, die gerade alle Lebensbereiche betrifft, sich noch weiter verstärken wird. Gleichzeitig stehe ich der großen Euphorie auch skeptisch gegenüber. Die Straßen sind bislang noch nicht mit selbstfahrenden Autos gefüllt – aber vielleicht wollen wir das auch gar nicht. Großes Potenzial sehe ich für KI in Bereichen wie Medizin oder Politik – zum Beispiel, um neue Steuermodelle zu berechnen oder staatliche Förderungen sinnvoll zu konzipieren. Datenschutz spielt dabei natürlich eine wichtige Rolle. Das Paradoxe: Viele Leute sind dem Staat gegenüber sehr misstrauisch, wenn es um ihre Daten geht, aber tragen ihren nächsten Arzttermin im Google-Kalender ein. Insgesamt gibt es noch viel ungenutztes Potenzial für KI, und mein Wunsch wäre, dass wir das künftig besser nutzen. (Anika Dang, 10.2.2023)