O que é androcentrismo?

Androcentrismo é a visão de mundo centrada nos homens, onde os homens são vistos como superiores, dominantes e mais importantes do que as mulheres. Essa visão tende a reforçar estereótipos de gênero, desvalorizando as mulheres e atribuindo aos homens poder e autoridade.

O androcentrismo permeia diversas instituições e práticas sociais, influenciando as relações de poder, a distribuição de recursos e oportunidades, bem como as representações culturais e midiáticas. Ele também contribui para a manutenção de desigualdades de gênero e a reprodução de papéis tradicionais que limitam o potencial das mulheres.

Para combater o androcentrismo, é necessário promover a igualdade de gênero e desconstruir normas e valores que perpetuam a superioridade masculina. Isso pode ser feito por meio de políticas públicas, campanhas educativas, empoderamento das mulheres e desconstrução de estereótipos de gênero.