L’équipe américaine féminine de foot, une revanche sur l’histoire


Aux Etats-Unis, la représentation sociale du football est bien moins prestigieuse que celles d’autres disciplines. A partir des années 70-80, le statut des femmes et l’avancée de leurs droits dans l’ensemble de la société vont le faire émerger.

Lire l’article complet