Deutschland und die USA: Was wollen die Deutschen?

Deutschland und die USA: Was wollen die Deutschen?

November 2020, US-Präsidentschaftswahlen. Die ganze Welt blickt auf die USA, so auch wir in Deutschland. „Wie geht es weiter mit der atlantischen Gemeinschaft?“, fragen sich einige. Für viele ist klar, dass es nur besser werden kann, wenn Trump aus dem Amt gewählt wird. Zu lange, so denken viele, wurde im Weißen Haus gelogen, betrogen und respektlos mit der Welt – einschließlich Amerikas Partnern – umgegangen. Unzählige Zeitungen malen sich aus, wie die USA bis 2024 wohl aussehen würden. In den Projektionen schwingt eine klare Nachricht mit: Wir erwarten mehr von den USA. Viele in Deutschland sind enttäuscht von einem Land, das aber gleichzeitig noch immer viele Sehnsüchte zu wecken scheint. Da stellt sich die Frage, was wir eigentlich von den USA wollen?

Wir benutzen Cookies um die Nutzerfreundlichkeit der Webseite zu verbessen. Durch Deinen Besuch stimmst Du dem zu.