¿Qué significa plantar?


plantar [plan-tar]
(Esta palabra proviene del latín plantāre).
(Esta palabra proviene del latín plantāris). [Conjugar verbo plantar]

adj. Anat. Perteneciente a la planta del pie.

-  Cultivar.

-  Meter en tierra una planta, un vástago o un esqueje para que arraigue. Por ejemplo: "plantar trigo".


Más información:



Introduce la palabra que desees conocer el significado:






¿Qué significa?

qsignifica.com

Definición y significado de la palabra plantar




[ Contacta con nosotros ]


(C) www.qsignifica.com