La Petite Histoire : La France a-t-elle pillé ses colonies ?

Parmi la multitude d’idées reçues qui viennent aujourd’hui entacher, souvent volontairement, l’histoire de France, il y en a une qui a particulièrement la vie dure : la France aurait pillé économiquement ses colonies. On nous présente donc une Afrique saignée à blanc par l’ogre français ; une Afrique qui aurait ainsi vu, par la même occasion, sont développement fortement retardé. Une thèse aussi grotesque que malhonnête, d’autant que la vérité historique nous montre… tout le contraire !

Related Articles