Ich habe die letzten Tage mal wieder eine Diskussion zum Thema „Terror“ und „Der Westen ist an allem Schuld“ gehabt.
Sobald irgendetwas in Syrien oder Afghanistan passiert, kommen sofort so Argumente wie:
- es waren deutsche Waffen
- Amerika ist Schuld
- der Westen arbeitet mit den terroristen zusammen und und und...
Ich bin ganz ehrlich, ich kann es nicht mehr lesen. Die ständige Propaganda gegen den Westen bzw. Amerika.
Ich persönlich vertrete die Meinung das es definitiv nicht so ist und wollte jetzt mal wissen was ihr davon haltet.
Liebe Grüße
In diesem Sinne...