Sembra un’opinione comune abbastanza diffusa, quella che se fossero le donne a detenere i posti di potere, attualmente occupati in larga parte dagli uomini, ci ritroveremmo in una società migliore, dove la violenza e le guerre diminuirebbero radicalmente, mentre verrebbero recuperate equità e giustizia.*Impossibile non domandarsi se questa opinione corrisponda[Continua...]
Continua a leggere...