¿Qué significa denigrar?


denigrar [de-ni-grar]
(Esta palabra proviene del latín denigrāre, poner negro, manchar). [Conjugar verbo denigrar]

tr. Ofender, manchar, empañar la opinión o fama de una persona; desacreditar, infamar.

-  Injuriar, ultrajar.

-  Desacreditar a una persona o cosa.

-  Desacreditar a una persona o cosa. Injuriar.


Más información:



Introduce la palabra que desees conocer el significado:






¿Qué significa?

qsignifica.com

Definición y significado de la palabra denigrar




[ Contacta con nosotros ]


(C) www.qsignifica.com