WESTERN
Définition
Le western est un genre cinématographique indissociable de l’histoire du cinéma. Depuis 1894, il a inspiré plus de 15 000 films, tournés principalement à Hollywood, mais également en Europe, Amérique latine et Asie. Ce chiffre impressionnant démontre à quel point l’épopée du Far West est un sujet central pour le septième art, qui se penche ainsi sur la fondation mythifiée de la société américaine.
Dès l’époque du cinéma muet, les premiers films consacrés au Far West étaient des sortes de « cartes postales » documentaires. Ils mettaient en scène des « garçons-vachers » (les cowboys ne s’appelaient pas encore ainsi) et des Amérindiens. Dans ces premiers essais, les Indiens étaient traités avec dignité, loin des stéréotypes qui marqueront par la suite le genre. Ces films étaient projetés dans des petites salles populaires appelées « nickelodéons », car l’entrée coûtait cinq cents (un nickel).
L’importance du western dans la culture américaine tient aussi à ce besoin de forger une légende pour un peuple sans racines anciennes. Le genre retrace la conquête du territoire nord-américain, la lutte des pionniers contre la nature et les premiers occupants (les Indiens), et construit une vision idéalisée de cette histoire. Sous l’œil des caméras, ces pionniers deviennent des figures héroïques, comparables à celles des épopées homériques. Ainsi, la réalité historique est transformée en mythe épique à travers les films, glorifiant les cowboys, les bâtisseurs de villes et les poseurs de rails, symboles de la construction de la civilisation américaine. Le western célèbre la grandeur de l’« américanité », en faisant revivre les moments clés de l’histoire nationale, tels que la lutte de Buffalo Bill contre les Indiens, la Guerre de Sécession, et l’établissement du chemin de fer.
MOC
Les différentes types de Western, chronoloiguqment :