El significado de la palabra

Encuentra el significado o la definición de una palabra en español


Definición para antropocentrismo


antropocentrismo
  • m. filos. Doctrina o teoría que supone que el hombre es el centro de todas las cosas, el fin absoluto de la naturaleza y punto de referencia de todas las cosas:
    el antropocentrismo se opone al teocentrismo.