La estructura de una lengua: Noam Chomsky

May 28 • Reflexiones • 3475 Views • No hay comentarios en La estructura de una lengua: Noam Chomsky

 

Según el lingüista, los humanos poseemos una “gramática universal” conformada por una serie de reglas que nuestro cerebro sigue para producir y entender el lenguaje

 

POR RAÚL ROJAS
Se ha dicho que la llamada “Revolución Cognitiva” comenzó alrededor de 1956, con la publicación de toda una serie de trabajos que trataban de interconectar a la neurología, la teoría de la información, las computadoras y la lingüística en un nuevo campo de estudio que después sería llamado Ciencias de la Cognición. Se trataba de esclarecer el enigma ancestral de cómo puede emerger consciencia de un cerebro, o incluso de dispositivos artificiales. Uno de esos escritos legendarios es el libro Estructuras sintácticas, de Noam Chomsky, publicado en 1957, en inglés, en Holanda. En esa época, el programa teórico iniciado por Norbert Wiener, con su libro Cibernética, mutará de nombre y se comenzará a hablar de la “Inteligencia Artificial”, un término acuñado en la conferencia de especialistas organizada por John McCarthy en 1956 en la Universidad de Dartmouth. En el área de la psicología, Alan Newell y Herbert Simon habían apenas publicado su libro sobre las estrategias usadas por humanos para resolver problemas. Pero si de cognición se trata, el primer producto cognitivo que en el reino animal salta de inmediato a la vista es la capacidad lingüística de los humanos.

 

Estructuras sintácticas es la primera en toda una cadena de obras en las que Chomsky va a argumentar, una y otra vez, a favor de entender el lenguaje como algo generado por nuestro cerebro siguiendo un conjunto pequeño de reglas organizadas de manera jerárquica. Eventualmente, Chomsky va a proponer que poseemos una “gramática universal” que subyace a todos los idiomas existentes en el mundo. Su sucesor en el Instituto Tecnológico de Massachusetts (MIT), Steven Pinker, lo ha explicado de manera cuasi anatómica: otros animales no pueden producir lenguaje porque les hace falta el órgano lingüístico para poder hacerlo. Los niños pueden aprender el lenguaje tan rápidamente porque no parten de cero, su mente no es la “pizarra en blanco” de la que hablaban los empiristas ingleses, sino que contiene, de manera innata, la maquinaria necesaria para producir y entender lenguaje. Claro que las palabras y construcciones varían de un lenguaje al otro, todo eso hay que aprenderlo de los padres, pero cuando nacemos, el cerebro ya viene preconfigurado como máquina lingüística por millones de años de evolución.

 

El primer paso hacia la gramática universal fue la edición de las Estructuras, que es parte de un manuscrito mucho más largo y denso que Chomsky elaboró a principios de los 50, donde trató de fundamentar la lingüística de manera formal y no sorprende que su primer trabajo en MIT haya sido para colaborar en un proyecto sobre traducción automatizada. Su manuscrito sobre las Estructuras sintácticas creció como parte de sus apuntes de clase para cursos de lingüística. No se llamaba así, la editorial le cambió el nombre por razones comerciales. Fue editado en múltiples ocasiones y han aparecido traducciones en muchos idiomas.

 

Las Estructuras están escritas de manera muy razonada y sistemática. Chomsky comienza por separar la gramática de la semántica y muestra que hay dos tipos de modelos que han sido populares para explicar el lenguaje, pero que tienen limitaciones insalvables. Propone por eso un tercer modelo, el propio, al que llama la “gramática generativa transformacional”. Las Estructuras describen la diferencia con los modelos previos y en el apéndice propone un conjunto de reglas transformacionales para el inglés.

 

Desde el primer capítulo, Chomsky pone en claro que la sintaxis puede ser concebida como un objeto de estudio formal basado en reglas puramente lógicas, mientras que la semántica, es decir la interpretación de lo dicho, es algo separable y separado de la sintaxis. Dice Chomsky que el resultado del trabajo de los lingüistas “debe ser una teoría de estructura lingüística en la que se describen los métodos usados en gramáticas particulares, presentados y estudiados en forma abstracta, sin referencia a lenguajes particulares”. La noción central en la lingüística sería la de los “niveles lingüísticos”, que son la fonémica, la morfología y la estructura de las frases. Una gramática sería un “artefacto” que puede producir las oraciones del lenguaje que estamos analizando. Cada nivel lingüístico tiene sus propias reglas, es decir, su propia subgramática.

 

El tercer capítulo presenta una teoría lingüística elemental basada en autómatas finitos. Esto quiere decir que cuando comenzamos a pronunciar una oración vamos pasando de un estado a otro y cada transición se produce emitiendo una palabra. Podríamos decir “.el.hombre.camina.”, donde cada punto representa un estado mental (una pequeña pausa antes de pronunciar la siguiente palabra). Son cuatro estados en total y tres palabras emitidas. En cada estado podríamos continuar de otra manera, por ejemplo, para decir “.el.hombre.trabaja.” podemos adoptar el mismo esquema, pero después del tercer estado en lugar de pronunciar la palabra “camina” se puede pronunciar “trabaja”. Es decir, después de cada estado hay una cierta probabilidad de continuar con palabras alternativas. Y como la decisión de la siguiente palabra está basada en probabilidades, entonces el modelo puede ser llamado un “modelo de Markov”, en honor al matemático ruso que comenzó a estudiar cadenas de transiciones probabilísticas. Sin embargo, Chomsky afirma que estas simples gramáticas restringen el número de oraciones que pueden ser producidas y “el inglés no es un lenguaje de estado finito”, es decir, producible a través de los modelos de Markov con un número limitado de estados. La razón es que oraciones en inglés pueden integrar más y más palabras, anidando oraciones sin ningún límite.

 

La segunda alternativa es utilizar reglas para ir generando oraciones. La primera regla puede ser: “una oración consiste de un sujeto y una frase verbal”. La regla para un sujeto podría ser: “un sujeto consiste de un artículo y un nombre”. Y para una frase verbal: “una frase verbal consiste de un verbo y complemento”. Y así sucesivamente, hasta llegar a las palabras terminales, por ejemplo, “los verbos son: caminar, correr, comer, etc.” y “los nombres son: hombre, caballo, insecto, etc.”. Siguiendo estas reglas se podría enunciar la oración “el hombre camina”, que contiene un sujeto y una frase verbal.

 

Lo importante, para que todas estas reglas sean útiles, es que la gramática así definida sólo pueda generar oraciones reconocibles como “gramaticalmente correctas” por las personas que hablan el idioma en cuestión. No importa si las oraciones no tienen sentido, dice Chomsky, y pone el ejemplo de la frase “las ideas verdes sin color duermen furiosamente”. Obviamente se trata de un sinsentido, pero uno que ilustra la separación entre gramática y semántica, y la manera en la que este tipo de oraciones pueden ser generadas por las reglas postuladas. A cualquier persona que domina el idioma en cuestión la frase le parece gramaticalmente correcta, aun sin entender el significado.

 

Podemos visualizar las reglas para generar un lenguaje como una especie de árbol. Una oración tiene dos ramas que cuelgan del nodo etiquetado así, “oración”. De una rama pende el sujeto y de la otra la frase verbal. Del sujeto penden dos ramas, una para el artículo y otra para el nombre. De la frase verbal pende una rama para el verbo y otra para el complemento. Este tipo de árboles son llamados “árboles de decodificación” (parsing trees). Representan la estructura de la oración y una de las formas en la que las computadoras tratan de reconocer lenguaje es recuperando el árbol de decodificación al analizar la lista de palabras en una oración. Chomsky señala que, aunque las reglas para generar oraciones han sido formuladas desde el punto de vista de la producción del lenguaje, el mismo tipo de reglas subyacen la decodificación por parte del que escucha. Chomsky pone el ejemplo de la química, en la cual las reglas que rigen la síntesis de compuestos químicos pueden ser utilizadas también para su análisis.
El objetivo de una teoría lingüística, puntualiza Chomsky, podría ser que la teoría nos proporcione un método para construir una gramática partiendo de un “corpus” de oraciones en el lenguaje. Una alternativa más débil sería que la teoría nos permita decidir cual de dos gramáticas que han sido postuladas se ajusta mejor a un corpus de frases. Chomsky duda que sea posible formular un algoritmo incambiable a través del cual sea posible generar la gramática para cualquier lenguaje y por eso se inclina por la segunda posibilidad. Esta opción parece más práctica porque habría manera de cuantificar la calidad de una gramática dada.

 

Lo más importante de la propuesta de Chomsky está contenido en el séptimo capítulo. El problema es que la complejidad del lenguaje es tal que tratar de cubrir todas las posibles oraciones con el método generativo conduce a una maraña de reglas que son muy difíciles de especificar y de seguir. Podemos tener una frase muy simple, como “el hombre golpea el metal” y de ahí podemos desprender una pregunta (“¿golpea el hombre el metal?”), o una construcción pasiva (“el metal es golpeado por el hombre”), o una negación, etc. Una sola frase puede conducir a muchas variantes que dicen lo mismo, o lo convierten en interrogante o frase pasiva. La frase pasiva se puede también negar, etc. Es fácil ver que el número de combinaciones gramaticales posibles es muy grande. Por eso la propuesta de Chomsky es describir con reglas las oraciones más sencillas y directas, en voz activa, y dadas esas oraciones “centrales”, derivar de ellas todas las demás a partir de transformaciones específicas. Habría una transformación para negar una oración, otra para convertirla en pregunta, otra para reescribirla en voz pasiva, etc. Por ejemplo, la oración “el metal no es golpeado por el hombre” proviene de la oración “el hombre golpea el metal”, la que ha pasado primero por la transformación que la enuncia en voz pasiva, seguida por la transformación que niega la oración. Así que una gramática podría estar conformada por las reglas de generación de las oraciones simples o centrales, extendida por una serie de transformaciones como las explicadas arriba. Eso es lo que constituye entonces la “gramática generativa transformacional”, que según Chomsky simplifica enormemente la formulación de las reglas generativas, las que son potenciadas por las transformaciones lingüísticas. Además, esta sería la forma en la que los niños aprenden el lenguaje: primero aprenden a formular oraciones centrales y después todas las variantes. Armado con esta metodología Chomsky analiza muchos ejemplos tomados del inglés para demostrar la efectividad de sus reglas generativas y transformacionales. En los apéndices a su libro, Chomsky proporciona una pequeña gramática para el inglés, que, a pesar de ser sucinta, logra cubrir muchos casos no triviales.

 

Toda esta discusión parecería de interés sólo para los lingüistas, pero ha tenido una enorme influencia en la computación y en las ciencias de la cognición. En la computación ha derivado en el estudio de sucesivos tipos de gramáticas para implementar lenguajes de programación decodificables con autómatas cada vez más poderosos. Las gramáticas son definidas con reglas generativas de diferentes tipos, de acuerdo con lo que se ha llamado la “jerarquía de Chomsky”. Una gramática reconocible por una máquina con un número finito de estados, por ejemplo, es llamada “regular”. Si es reconocible por una computadora, es llamada “gramática de tipo 0”, etc. En las ciencias de la cognición continúa el debate acerca de la separación estricta entre sintaxis y semántica, como fue postulada por Chomsky en Estructuras y que de alguna manera sirve de base también para la concepción de una gramática universal. La gramática generativa transformacional sería, en cierto modo, la fisiología de ese órgano del lenguaje del que ha hablado Pinker.

 

Las Estructuras sintácticas representa el fulminante inicio de la obra más visible de Chomsky. Ha sido un libro muy influyente, pero es sólo un ladrillo más hacia poder definir gramáticas para los diversos niveles lingüísticos, aumentadas por transformaciones, que puedan conformar el substrato requerido por una gramática universal. Pinker ha dicho que se critica masivamente a Chomsky, pero sólo porque es el lingüista más visible y famoso. De hecho, hay un juego en el que se le pide a una persona que nombre a un lingüista cualquiera, pero que no sea ni Chomsky ni Pinker. Sólo los lingüistas profesionales aciertan. Tal es la fama del creador de las Estructuras sintácticas, un libro que representa tan sólo la punta del iceberg conceptual que Chomsky lanzó al mar de las ciencias cognitivas en 1957.

 

FOTO: Aunque sus teorías han sido pilar de avances tecnológicos, Chomsky reconoce los límites de la razón y se posiciona en contra del cientificismo/Archivo El Universal

« »