¿Qué significa antropocentrismo?


antropocentrismo [an-tro-po-cen-tris-mo]
(Proviene de la palabra antropo- y centro).

m. Filos. Teoría que su pone que el hombre es el centro de todas las cosas y el fin absoluto de la naturaleza.

-  Doctrina que considera al hombre como centro del universo, el fin absoluto de la naturaleza.


Más información:



Introduce la palabra que desees conocer el significado:






¿Qué significa?

qsignifica.com

Definición y significado de la palabra antropocentrismo




[ Contacta con nosotros ]


(C) www.qsignifica.com