Le Traité de Westphalie
Les traités de Westphalie, signés en janvier et octobre 1648, mettent fin à trente ans de carnage et redéfinissent l’Europe. Au-delà de la paix fragile qu’ils instaurent, ils posent les bases de la souveraineté des États et de l’équilibre des puissances. Mais derrière cette façade de réconciliation, les tensions religieuses et politiques persistent. Un moment clé de l’histoire, où la paix semble aussi incertaine que le futur.
Le Traité de Westphalie Lire l’article »


