Der Westen

Was ist „der Westen“?

„Der Westen“, das sind Orte wie die USA oder die EU. Also Länder, wo es Presse- und Meinungsfreiheit gibt. Russland oder China zum Beispiel gehören nicht zum „Westen“, weil es diese Freiheiten dort nicht gibt. Es geht also mehr um die Gemeinsamkeiten mancher Länder als um die Himmelsrichtung.