¿Qué significa agredir?


agredir [a-gre-dir]
(Esta palabra proviene del latín aggrĕdi). [Conjugar verbo agredir]

tr. Acometer, atacar violentamente a alguien.

-  Acometer o atacar para hacer daño.

-  Ejercer violencia.


Más información:



Introduce la palabra que desees conocer el significado:






¿Qué significa?

qsignifica.com

Definición y significado de la palabra agredir




[ Contacta con nosotros ]


(C) www.qsignifica.com