Behauptung: Der westliche Kolonialismus wird immer noch Praktiziert.?
Diese Behauptung soll auf keinen Fall eine Beleidigung der westlichen Kultur und ihren Errungenschaften sein. Doch im Informationszeitalter ist die Wahrheit das wichtigste wenn nicht ein heiliges Gut. Auch beruht diese Behauptung auf Fakten und wie Helmut Schmidt den "Raubtierkapitalismus" anprangerte so will ich nicht die westliche politische Meinung angreifen sondern mich Austauschen beruhend auf Tatsachen. PS: An alle Kasperl...: Erspart mir lächerliche Antworten die nichts mit der Frage (Behauptung) zu tun haben.
paradox2007-10-05T15:28:23Z
Beste Antwort
Ja, selbstverständlich wird er noch praktiziert. Sicher nur noch in Ausnahmefällen durch militärische Eroberung neuer Kolonien (die nennt man dann nur anders) als eher durch rein wirtschaftliche Ausbeutung. Wenn beispielsweise europäische Fischtrawler vor Afrikas Küsten alles leerfischen, sich dabei auf Verträge mit den hinterletzten Diktatoren berufen, diese auch noch mit Waffen beliefern, die selbige Diktatoren nun an ihren hungernden Untertanen ausprobieren können, ist das definitiv eine Form des Kolonialismus. Gleiches gilt auch für die Stellvertreterkriege, die während des Kalten Krieges in Afrika ausgetragen wurden.
logo wird er immer noch praktiziert und wie... immer feste drauf ... die industrieländer nehmen die ehemals in ihren händen befindlichen kolonien immer noch weiter aus wie gute polnische weihnachtsgänse und das wird auch so bleiben egal was die politiker auch an phrasen los lassen, es bleibt eine tatsache und ist nicht zu verleugnen.