Il était une fois la… philologie. Non, non, ce n’est pas une erreur. « Mère » de la linguistique, la philologie a pour but de reconstruire la meilleure version d’un texte (notamment de manuscrits anciens) à partir d’une comparaison des (fragments de) documents résiduels. Sur base de traces et de preuves, les philologues essaient d’établir la « vérité », la source originale d’un texte.
Au XIXe siècle, le Romantisme allemand, l’empreinte du Positivisme et de la foi scientifique poussent la linguistique à faire ses premiers balbutiements. C’est à cette époque qu’on commence à parler de linguistique historique et comparative. On s’intéresse entre autres à systématiser l’évolution des langues, à fournir des «lois» expliquant la transformation des sons (les fameuses mutations consonantiques décrites par les Lois de Grimm et de Verner).
On essaie également de décrire les processus mis en oeuvre dans le changement de la langue, comme l’analogie, c’est-à-dire les ressemblances entre langues, et l’emprunt, ou le ‘vol’ d’une langue à l’autre.
On tient compte de la relation entre une langue et ses variétés ainsi que des relations de similitude entre langues différentes : des liens de parenté, ou mieux de véritables familles de langues.
A l'aube de son essor, la linguistique adopte une approche diachronique pour décrire les langues, c’est-à-dire qu'elle étudie et surtout décrit les langues en retraçant son évolution dans le temps.
Le temps passe et au début du XXe siècle, au milieu de son adolescence, période par excellence d’affirmation de l’identité, la linguistique est sujette à une « rébellion » qui allait être décisive pour le restant de ses jours. Fait étonnant, cette « rébellion » eu lieu dans un pays parmi les plus pacifistes au monde : la Suisse.
A l’origine de la « rébellion », un ensemble de cours donnés par un professeur universitaire qui pose les fondements de la linguistique moderne. Et dire que ce « syllabus » n’est même pas le fruit de la rédaction de ce fameux professeur de Genève, Ferdinand de Saussure, mais de la collection ordonnée des notes de deux parmi ses élèves, Charles Bailly et Albert Sechehaye (voilà à quoi pourrait servir de bien prendre note au cours !).
Le Cours de linguistique générale, publié en 1916, devient le texte fondateur de la linguistique conçue comme science descriptive du langage. A partir de ce moment, la linguistique entrevoit une nouvelle approche : l’approche synchronique (l’approche diachronique est encore présente, bien sûr). Cela veut dire que le centre d’intérêt des linguistes n’est plus l’évolution, mais l’état de la langue à un point précis sur la ligne du temps.
Une distinction est faite entre la langue, c’est-à-dire le système commun de signes linguistiques que nous utilisons pour nous exprimer et pour communiquer, et la parole, c’est-à-dire l’énonciation écrite ou orale que chacun de nous produit pour s’exprimer ou pour communiquer.
L'attention se concentre en particulier sur la langue, donc sur les signes linguistiques : on réfléchit sur leur nature arbitraire, ou plutôt conventionnelle (un être à 4 pattes, ayant une queue et aboyant est un ‘chien’, non pas une ‘chaise’ ou un ‘pain’), ainsi que systématique, ou plutôt organisée (‘chien’, ‘chat’ et ‘lapin’ sont tous les trois des ‘animaux’, par exemple).
C’est sur le « volet systématique » des Cours de linguistique générale que la linguistique vit une autre évolution identitaire, ou mieux une série d’évolutions, au cours de la première moitié du XXe siècle. Comme la plupart des sciences, la linguistique entame sa période schizophrène de multiplication d’identités !
Pourtant, ces périodes peuvent être réunies sous une «identité sommaire » : la linguistique structurale. Trois écoles (et plusieurs courants de pensée) sont à mentionner :
Chaque école est ancrée dans les principes de base présentés par la nouvelle « Bible des linguistes », même si chaque école les interprète et les fait évoluer de manière personnelle.
Le grand trait commun est constitué par la méthodologie : la rigueur scientifique. Toute tentative de description des phénomènes de la langue en tant que système de signes n’est plus une supposition subjective, mais une hypothèse objective formalisée (ou du moins, on fait un effort en ce sens…).
- l’école américaine avec la linguistique distributionnelle de Zelig Harris, la linguistique descriptive de Franz Boas et Leonard Bloomfield et le déterminisme linguistique de l’hypothèse d’Edward Sapir et Benjamin Lee Whorf ;
- l’école de Prague et la linguistique fonctionnelle de Roman Jakobson ;
- l'école de Copenhague et la glossématique de Louis Trolle Hjelmslev.
Chaque école est ancrée dans les principes de base présentés par la nouvelle « Bible des linguistes », même si chaque école les interprète et les fait évoluer de manière personnelle.
Le grand trait commun est constitué par la méthodologie : la rigueur scientifique. Toute tentative de description des phénomènes de la langue en tant que système de signes n’est plus une supposition subjective, mais une hypothèse objective formalisée (ou du moins, on fait un effort en ce sens…).
A partir du début de la deuxième moitié du XXe siècle, la linguistique entreprend son parcours de spécialisations et de sous-spécialisations (ou de ‘schizophrénie avancée’).
A partir du début de la deuxième moitié du XXe siècle, la linguistique entreprend son parcours de spécialisations et de sous-spécialisations (ou de ‘schizophrénie avancée’).
L’école américaine prend la relève.
La force de la théorie de la grammaire générative et transformationnelle (et ses corrections successives) dessine encore, surtout aux Etats-Unis, le panorama de la linguistique contemporaine. Noam Chomsky (linguiste et activiste), élève de Zelig Harris, en est le déclencheur avec ses livres Syntactic Structures (1957) et Aspects of the Theory of Syntax (1965).
La théorie de la grammaire générative et transformationnelle est la première diva, la « Céline Dion de la linguistique ». On peut les aimer ou les détester, mais les CDs de Dion et les livres traitant de la théorie générative et transformationnelle restent en tout cas des best-sellers incontournables !
De la même manière qu’il est difficile de rencontrer quelqu’un qui n’a jamais entendu ‘My heart will go on’, il est quelque peu improbable de rencontrer un linguiste qui n’a jamais vu une représentation de la structure d’une phrase sous forme d’un arbre :
Les adversaires des théories chomskyiennes aiment à disqualifier l'approche en la traitant de plomberie qui n'a rien avoir avec la "vraie" langue.
La diffusion des arborescences et des théories chomskyiennes est capillaire et conduit à des ramifications européennes autour des années 70 - 80.
Maurice Gross, élève de Zelig Harris et ami de Chomsky, s’éloigne pourtant de la vision chomskyienne pour établir le paradigme de recherche du lexique-grammaire. Il est en effet persuadé que chaque mot sélectionne des relations propres avec d'autres mots. Pour Gross donc, chaque mot possède une grammaire propre à décrire. Le rôle du linguiste serait de décrire ces sélections de manière systématique dans des grilles d’analyse qu’il va nommer des tables. Et les mots sont ainsi servis !
Ces tables descriptives sont devenues un point de départ important pour l’élaboration de dictionnaires électroniques, très bien connus des membres du CENTAL.
Plutôt que de se focaliser uniquement sur la forme du langage, le courant fonctionnaliste essaye de répondre à la question pourquoi le langage est tel qu'il est. Un peu en retrait par rapport aux théories chomskyiennes, les théories fonctionnelles ne vont pourtant jamais cesser de développer cette autre personnalité linguistique issue de la schizophrénie structurale. Aujourd'hui on peut même dire que c'est l'identité fonctionnelle qui a pris le dessus sur l'identité formelle - mais peut-être est-ce un parti-pris. Les différents points de vue sont donnés dans le livre "Functionalism and Formalism in Linguistics"
Le courant fonctionnaliste s’affirme, entre autres :
La plupart des linguistes à l'UCL sont assez "fan".
- à partir des études d’ « amitié entre les mots » de l’école de Londres de John Rupert Firth (une de ses citations connues dans A Synopsis of Linguistic Theory de 1957 : « you shall know a word by the company it keeps ») jusqu’à la théorie systémique fonctionnelle de son élève Micheal Alexander Kirkwood Halliday (ou plus souvent M.A.K. Halliday… très souvent suivi de Ruqaya Hasan, nom de son épouse et néanmoins collègue avec laquelle il a rédigé un texte de référence sur la cohésion textuelle en langue anglaise, appelé Cohesion in English) ;
- autour des études discursives fonctionnalistes de Wallace Chafe, Bill Mann, Sandra Thompson, etc. sur la West Coast étatsunienne que l'on regroupe sous le vocable West Coast Functionalism;
- sur base des études de George Lakoff et Mark Johnson sur la métaphore comme forme de conceptualisation implantée dans le langage : on parle de linguistique cognitive, avec Ronald Langacker comme représentant incontournable de la grammaire cognitive.
La plupart des linguistes à l'UCL sont assez "fan".
La fin des années 80 et le début des années 90, surtout en Europe, voient enfin l’essor de la linguistique de corpus.
Elle s’impose comme méthodologie d’analyse empirique des données linguistiques, supportée par des outils informatiques de dépouillement et de calcul. Autrement dit, on voit des tonnes de mégabytes de textes de près, sur l’écran de l’ordinateur !
On regroupe des collections de textes, ou corpus, de manière plus ou moins raisonnée, pour décrire le langage à partir de réalisations concrètes et naturelles, soient-elles les œuvres de Victor Hugo, les chansons de Carla Bruni ou les transcriptions des dialogues de M. Jacques Kiconke avec M.Jean Kisait.
L'application et la formalisation de cette méthodologie reviennent au monde anglosaxon, notamment aux travaux de John McHardy Sinclair dont on retrouve l’esprit original dans son livre Corpus, Concordance, Collocation.
Là aussi, beaucoup de fans à l'UCL, même si les membres du CECL sont encore plus fans que les autres !
Texte réalisé en collaboration avec Mario Marcon, étudiant LING22MA (2008-2009)