Was ist da los? Das fragten sich vor 25 Jahren viele bei Chers neuem Lied "Believe". Statt rauchig-tief klang ihre Stimme bizarr-verzerrt. Die übertrieben angewandte Software Autotune machte es möglich. Manche Pop-Experten nennen Autotune - eigentlich eine automatische Tonhöhenkorrektur - das wichtigste neue Musikinstrument der letzten Jahrzehnte. Die Software revolutionierte die gesamte Musikbranche, vor allem Rap und Hip-Hop. Und sie bekam den Beinamen "Cher-Effekt".
Der Bezug zu Cher passt auch kulturtheoretisch, denn die gern mal als wandelnder Photoshop-Effekt bezeichnete Sängerin ging schon früh offen damit um, dass sie Schönheitsoperationen vornehmen ließ. Warum also nicht auch offensiv eine Software nutzen, bei der die Stimme verändert wird - halb nach Mensch, halb nach Computer klingen kann?
Digitales Jodeln
"Believe" wurde am 19. Oktober 1998 veröffentlicht. In mehr als 20 Ländern wurde das Lied ein Nummer-eins-Hit. Der Song gilt bis heute als Chers erfolgreichste Single. Der Einsatz bei Cher und später vielen Rappern wie T-Pain, Kanye West oder Apache 207 ist eine hörbare Zweckentfremdung. Eigentlich geht es bei Autotune nur darum, kleine Ungenauigkeiten beim Singen zu korrigieren und exakter die richtige Tonhöhe treffen zu lassen.

"Stellt man die Software allerdings so scharf ein", formulierte es einmal der Kulturjournalist Jan Kedves im "Musikexpress" anschaulich, "dass die schiefen Töne nicht mehr sanft auf Höhe gezogen werden, sondern ruckartig, dann entsteht dieser digitale Jodel-Effekt, der klingt, als wäre die Stimme in Plastikfolie eingepackt und würde gerade eine Treppe hoch oder runter purzeln."
Erfinder von Autotune ist der Mathematiker Andy Hildebrand, der die Software 1997 mit der Firma Antares Audio auf den Markt brachte. Dafür bekam der Programmierer dieses Jahr - nach einem Vierteljahrhundert - eine Technik-Ehrenauszeichnung bei den Grammy Awards. Hildebrand habe das Werkzeug erfunden, das die Gesangsproduktionslandschaft mit moderner Auto-Tune-Pitch-Technologie verändert habe, hieß es zur Begründung. Sie sei von Künstlern wie Cher bis Lil Wayne und Daft Punk verwendet worden.
Von Ölgeschäft in die Musikbranche
Die Software geht auf eine Entwicklung für die Ölindustrie zurück. Die Idee war einst, dass die Explosion von Sprengköpfen in der Erde durch den Boden hallt, die seismischen Reflexionen mithilfe eines Algorithmus analysiert werden und so zu neuen Ölquellen führen.
Nachdem Hildebrand Ende der 80er seine Ingenieur-Karriere aufgegeben hatte und seiner Musikleidenschaft als Flötist nachging, kam er auf die Idee, seine digitale Signalverarbeitung auch bei Musik und Gesang in Audiodateien anzuwenden. Töne können damit rasch moduliert werden. So wie man Erdöl entdeckt, das sonst nie gefunden worden wäre, wird Perfektion in Stimmen gezaubert, die sonst unvollkommen klängen.
Nach wie vor kommt das Korrekturwerkzeug hörbar (als Stilmittel und somit Instrument) zum Einsatz. Experten wie der Musikwissenschafter Malte Kobel betonen aber auch, dass Autotune oder Alternativprodukte wie Melodyne und Waves Tunes heutzutage praktisch so gut wie immer eingesetzt werden - meist unhörbar und heimlich. "Das passiert nicht zuletzt auch, um Studiokosten zu sparen", sagt Kobel.
Kurz nach Cher war das dann auch etwa bei Jennifer Lopez der Fall ("If You Had My Love") und inspirierte den Rapper T-Pain zu einer Art Cyborg-Sound, weshalb bei Autotune viele Pop-Experten nicht nur vom Cher-Effekt, sondern auch vom T-Pain-Effekt sprechen. "Von T-Pain ausgehend gab es eine eigene Ästhetik, die sich ausbreitete, vor allem im Rap und R&B", sagt Kobel. "Es gab eine neue Zwischenform aus Sprechgesang und Singsang, eine neue Art der Melodiösität."
Auch Kulturjournalist Jan Kedves sagt: "Autotune ist mehr als ein Soundeffekt. Im Rap zog dadurch eine Art Androgynität ein." Der einst dominante recht aggressive Gangster-Rap sei vom Trap-Rap und Autotune-Rap eingeholt worden. (APA, 16.10.2023)