La Namibie : histoire d′une colonie allemande
Documentaire, Histoire, Téléfilm
Résumé du film
Les Allemands ont colonisé la Namibie, en Afrique australe, pendant une brève période, de 1840 à la fin de la Première Guerre mondiale. L'histoire de ce que l'on appelle le Sud-Ouest africain allemand (1884-1915) est hideuse ; un récit caché et réduit au silence de pillage et de génocide.
Page imdb6 / 10