Qu'est ce que la Femme a fait au monde pour être traitée ainsi ?
Je me permets de créer cette publication afin que chacun puisse répondre avec des arguments historiques, théologiques, sociologiques intéressants et justes dans le respect de chacun.
En VRAI : Pourquoi s'est-on toujours permis de juger nos corps ? Notre sexualité ? Pourquoi devrions-nous avoir honte d'aimer le sexe ? d'aimer les hommes ? Pourquoi s'est on toujours permis de nous commenter, de nous agresser, de nous toucher, de nous violer, de nous tuer ? Pourquoi devrait-on avoir honte de ne pas vouloir d'enfant ? De privilégier notre carrière pro au perso ? De ne pas avoir le droit de s'habiller comme on le souhaite, ou d'en faire les frais socialement si on ne rentre pas dans le moule ? D'être catégorisée de pas mariable si on veut voyager seule ? Etc etc
Concrètement, qu'est ce que la Femme a fait dans l'Histoire de l'humanité pour en arriver à être traitée ainsi dans les sociétés actuelles ? D'où vient cette misogynie, ce sexisme, cette haine des femmes ?
MON AVIS (un peu caricatural et abrégé me tombez pas dessus) :
Je pense que la religion y ait pour beaucoup. Je n'ai pas une grande culture religieuse, mais il me semble que dans certaines religions très anciennes, le statut de la femme était justement différent : elle était vénérée, la société se voulait davantage "matriarcale" de part le fait que la femme donnait la vie. Pourquoi un tel changement au profit des hommes et pas seulement un changement qui privilégie l'égalité entre les sexes ?
Je pense que la religion étant intimement liée au pouvoir et à l'Etat, ce changement s'est notamment effectué en raison de l'impact des guerres et des conquêtes. L'homme étant biologiquement et généralement plus fort qu'une femme, il va "naturellement" au combat. Du moins les Hommes lui ont "naturellement " attribué ce rôle, donc il est, je pense devenu progressivement le Maître, celui qui sauve, qui défend, et les hommes ont donc trouvé cette parade pour s'ériger en être supérieur sur l'échelle sociale et s'attribuer la légitimité de la domination de la tribu, mais aussi du couple et des relations aves les femmes.
Je vois bcp de discours masculinistes sur les réseaux qui utilisent l'argument biologique comme justificatif : "nous sommes biologiquement + forts, nous sommes des animaux, donc on doit dominer"
Or, je pense que c'est une erreur, l'homme et la femme nous nous sauvons mutuellement, nous n'existons biologiquement pas l'un sans l'autre, donc nous devons avancer l'un AVEC l'autre, pas l'un contre l'autre.