Mon Explorateur de Films

La Namibie : histoire d′une colonie allemande

Documentaire, Histoire, Téléfilm

La Namibie : histoire d′une colonie allemande

Résumé du film

Les Allemands ont colonisé la Namibie, en Afrique australe, pendant une brève période, de 1840 à la fin de la Première Guerre mondiale. L'histoire de ce que l'on appelle le Sud-Ouest africain allemand (1884-1915) est hideuse ; un récit caché et réduit au silence de pillage et de génocide.

Page imdb

6 / 10

Crédits