¿Qué significa germania?


germania [ger-ma-nia]
(Esta palabra proviene del latín germānus, hermano).

f. Jerga de los gitanos, ladrones y rufianes.

-  Hist. Cada una de las colectividades que, reinando Carlos I, se sublevaron contra este rey en Valencia y Baleares.

Germanía [germanía]
(Esta palabra proviene del latín germānus, hermano).

Geog. hist. Región de la Europa antigua, que comprendía aproximadamente a la actual Alemania.

-  Hermandad.

-  Jerga o argot propio de pícaros y ladrones.


Más información:



Introduce la palabra que desees conocer el significado:






¿Qué significa?

qsignifica.com

Definición y significado de la palabra germania




[ Contacta con nosotros ]


(C) www.qsignifica.com