Am Ende des 19. Jahrhunderts gehörte das Deutsche Reich zu den Kolonialmächten Europas. Mit mörderischer Brutalität unterdrückten deutsche Kolonialherren die Bewohner der besetzten Länder. Ein düsteres Geschichtskapitel, über das bis heute noch wenig bekannt ist. (Text: planet-wissen.de)