Was bedeuten die Vereinigten Staaten von Amerika für Sie?
Foto: EPA/JUSTIN LANE

Über die wenigsten Dinge hat man sein Leben lang ein und dieselbe konstante Meinung. Man verändert sich, wird erwachsen, sammelt Lebenserfahrung. Und auch die Welt um einen herum ist permanent in Bewegung. So ist es auch kein Wunder, wenn sich im Laufe eines Lebens das eigene Bild von einem anderen Land ändert.

So wie das Bild von den Vereinigten Staaten von Amerika: das Land der unbegrenzten Möglichkeiten, voller verheißungsvoller Metropolen, gegen die der eigene Heimatort furchtbar provinziell und verstaubt wirkte. Kulturelle Strömungen, die dort erst ihren Anfang nahmen und dann mit Verspätung über den Ozean schwappten. Auch Erzählungen der Eltern und Großeltern aus der Nachkriegszeit prägten bei vielen die Wahrnehmung.

Doch über die Jahre und Jahrzehnte bekam bei vielen das Amerikabild erste leichte, dann immer deutlichere Risse und geriet schließlich vollends ins Wanken. Und nun stehen wir also bei Präsident Donald Trump, dem deutlichen Erstarken der rechten Szene, anhaltender Polizeigewalt gegen die schwarze Bevölkerung und dem zunehmenden Einfluss evangelikaler Positionen. Das Gesellschaftsklima in den USA scheint unumkehrbar vergiftet, das Ansehen des Landes in der Welt liegt in Trümmern, der Ausgang der Wahlen und das, was danach kommt, ist ungewiss. Dieser User fasst die Entwicklung so zusammen:

Barbara Coudenhove-Kalergi meinte in ihrem STANDARD-Kommentar: "'Unser' Amerika ist in Gefahr". Dazu schreibt ein User:

Wie dachten Sie früher über die USA – und wie tun Sie es heute?

Was haben die USA – und die Idee davon – früher für Sie bedeutet? Und wie sehen Sie die USA heute? Welche konkreten Auslöser haben bei Ihnen die Veränderung in der Wahrnehmung bewirkt? Was macht Sie traurig, was gibt Ihnen Hoffnung? Und was wissen Sie nach wie vor an den USA zu schätzen? (aan, 21.10.2020)