🇫🇷 Histoire de France

Quand la France colonisait l'Amérique du Nord

0 validation

Avant que les Britanniques ne dominent l'Amérique, c'est la France qui explore et s'installe en Amérique du Nord. Tout commence avec Cartier et Champlain qui remontent les fleuves de ce nouveau monde. L'objectif ? Les fourrures, surtout les peaux de castor — un trésor qui vaut or en Europe. La France établit des forts, fonde Montréal et Québec, et crée des alliances avec les tribus amérindiennes. Une présence française majeure dans la vallée de l'Ohio et au-delà, qui aurait pu redessiner la carte de l'Amérique du Nord.

Ta réaction

Discussion (0)
Chargement…
Connecte-toi pour laisser un commentaire.
À gagner+20Thingsto
0
Validations
0
Amis l'ont fait
0
Favoris
Chargement…