Drapeau Allemagne
— canadastock / Shutterstock.com

Initialement, les États qui ont précédé l’Empire allemand n’étaient pas à proprement parler allemands. Saviez-vous que l’Allemagne que l’on connaît aujourd’hui est née en France ?

Si vous pensiez que l’Allemagne a toujours été allemande, vous vous trompez ! En effet, les États ayant existé avant la création de l’Empire allemand n’étaient pas explicitement considérés comme étant « allemands ». Ceux-ci étaient situés dans le Saint-Empire romain, selon sa véritable définition, allant des Pays-Bas à la péninsule italienne, et non le Saint-Empire romain germanique comme nous l’entendons communément.

De plus, il s’agissait de regroupements d’États, tels que des royaumes, principautés, duchés ou grands-duchés, et non de pays. Ils se regroupaient dans différentes confédérations.

En réalité, c’est seulement à partir de la signature de la création de l’Empire allemand et de l’unification allemande dans la galerie des glaces du château de Versailles, le 18 janvier 1871, et donc après la défaite française durant la guerre contre la Prusse et ses alliés (1870-1871), que l’Allemagne est née.

S’abonner
Notifier de
guest

4 Commentaires
Le plus populaire
plus récent plus ancien
Inline Feedbacks
View all comments
Smeekens Alain
Smeekens Alain
4 années

Où bien la France était-elle Allemande ou Prussienne ?

SUN Wukong
SUN Wukong
1 année

Sauf que l’empire dissout par Napoléon s’appelait Saint Empire Romain Germanique, tout de même cimenté en grande partie par la langue allemande en cours de gestation (l’Allemand moderne est né au temps de Martin Luther) environ. Jusqu’à l’époque moderne, aucune entité politique ne pouvait prétendre au titre d’état, y compris… Lire la suite »