— canadastock / Shutterstock.com

Initialement, les États qui ont précédé l’Empire allemand n’étaient pas à proprement parler allemands. Saviez-vous que l’Allemagne que l’on connaît aujourd’hui est née en France ?

Si vous pensiez que l’Allemagne a toujours été allemande, vous vous trompez ! En effet, les États ayant existé avant la création de l’Empire allemand n’étaient pas explicitement considérés comme étant « allemands ». Ceux-ci étaient situés dans le Saint-Empire romain, selon sa véritable définition, allant des Pays-Bas à la péninsule Italienne, et non le Saint-Empire romain germanique comme nous l’entendons communément. De plus, il s’agissait de regroupements d’États, tels que des royaumes, principautés, duchés ou grands-duchés, et non de pays. Ils se regroupaient dans différentes confédérations.

En réalité, c’est seulement à partir de la signature de la création de l’Empire allemand et de l’unification allemande dans la galerie des glaces du château de Versailles, le 18 janvier 1871, et donc après la défaite française durant la guerre contre la Prusse et ses alliés (1870-1871), que l’Allemagne est née.

2
COMMENTEZ

connectez-vous pour commenter
avatar
1 Fils de commentaires
1 Réponses de fil
0 Abonnés
 
Commentaire avec le plus de réactions
Le plus populaire des commentaires
2 Auteurs du commentaire
Cyril VSmeekens Alain Auteurs de commentaires récents
  S’abonner  
plus récent plus ancien Le plus populaire
Notifier de
Smeekens Alain
Invité
Smeekens Alain

Où bien la France était-elle Allemande ou Prussienne ?