Sembra un’opinione comune abbastanza diffusa, quella che se fossero le donne a detenere i posti di potere, attualmente occupati in larga parte dagli uomini, ci ritroveremmo in una società migliore, dove la violenza e le guerre diminuirebbero radicalmente, mentre verrebbero recuperate equità e giustizia.*Impossibile non domandarsi se questa opinione corrisponda[Continua...]
Continua a leggere...



 Thanks: 
 Mi piace: 
 Non mi piace: 

				
				
				
					
  Rispondi Citando
				

