Ist Deutschland unsicherer geworden?

Ist Deutschland unsicherer geworden?
Was denkt ihr?
Gefragt am 5. Mai 2017 in Politik und Wirtschaft von ErnieUndBärt

Deine Antwort

Dein angezeigter Name (optional):
Datenschutz: Deine Email-Adresse benutzen wir ausschließlich, um dir Benachrichtigungen zu schicken. Es gilt unsere Datenschutzerklärung.

1 Antwort

Die Moral hat nachgelassen. Der gegenseitige Respekt auch. Insbesondere gegen Polizisten und Sanitätern. Die wollen ja eigentlich helfen.
Aber sonst?
Wiso sollte Deutschland unsicherer geworden sein?
In jedem Land gibt es Verbrechen und böse Menschen. Mal mehr, mal weniger.
Beantwortet am 6. Mai 2017 von Himmelblau