¿Qué significa anatomía?


anatomía [a-na-to--a]
(Esta palabra proviene del latín anatomĭa, y este del griego ἀνατομή, disección).

f. Disección de las partes de un cuerpo orgánico, y en especial del humano.

-  Ciencia que estudia las diferentes partes de los cuerpos orgánicos, y con especialidad del humano.

-  Estudio de la disección. Tiene por objeto estudiar el número, estructura y situación de las diferentes partes del cuerpo de los animales o de las plantas. Disección completa. [griego, antiguo].


Más información:



Introduce la palabra que desees conocer el significado:






¿Qué significa?

qsignifica.com

Definición y significado de la palabra anatomía




[ Contacta con nosotros ]


(C) www.qsignifica.com