Deutschland ist immer noch eine US-Kolonie ..

.. die Deutschen werden aus den USA regiert

Mehrere deutsche Politiker, Journalisten, Denker und selbst das
deutsche Fernsehen sehen Deutschland seit 1945 bis heute (2014)
als ein durch die USA besetztes Gebiet, die deutsche Regierung
ist nur eine Marionettenregierung der USA und das deutsche Volk
hat weder eine innen- noch außenpolitische Souveränität.