El significado de la palabra

Encuentra el significado o la definición de una palabra en español


Definición para westerns


western
  • (voz i.) m. Película cuyo escenario es el oeste de EE. UU.
  • Género cinematográfico al que pertenecen estas películas:
    es un gran aficionado al western.