Was ist für Deutschland sehr wichtig? Menschen töten oder Steuerhinterziehung?
Warum ist Deutschlands Politik nur auf Geld ausgerichtet? Wenn man die deutsche Nachrichten hören möchte, dann hört man nur von Geldpolitik sonst nichts anderes. Steuern, Steuern und Steuern. Kann sein, dass Deutschland bald auch Toiletten-Steuer einführt. Während in andere Länder die Menschen hungern, Kriege herrschen und ums Leben kommen hört man hier nix davon. Warum schickt Deutschland Soldaten nach Afghanistan? Wegen Bodenschätze! Alles andere sind nur Lügen. Es gibt Leute, die sich bereit erklären und als Soldat nach Afghanistan reisen, weil sie dort mind. 5000 € im Monat bekommen. Wenn jemand wirklich wegen Geld dahin gehen sollte, der ist für mich keine Mensch und wenn er dort ums leben kommt, freue ich mich nur darüber. Ich habe schon Leute gesehen die passen gar nicht auf Ihre Eltern auf, obwohl die Eltern sie gezeugt haben. Irgendwie meine Meinung nach legen die deutsche Gesellschaft mehr Wert auf Ihre Hunde als Ihr eigene Eltern. Sobald die Eltern sterben, dann rennen alle Kinder plötzlich dahin wegen Vermögen. Selbst wenn man hier in BRD Menschen tötet, legt der Staat nicht soviel Wert darauf, sowie als wenn man Steuern hinterzieht. Und warum ist das so? In Deutschland herrscht Sklavenhandel in Form von Zeitarbeit. In anderen EU-Länder werden die Leiharbeiter genauso belohnt wie für Festangestellte und warum nicht hier? Was ist eure Meinung? Was ist für Deutschlands Politik wichtiger?