Fue una conjunción de azares: un doctor en Ciencias de la Computación que investiga sobre habla e inteligencia artificial en la UBA fue tan entusiasta en el dictado de una materia que, al terminar la cursada, un alumno de la licenciatura resolvió orientar su tesis de grado hacia esos temas. Casi al mismo tiempo, Kalinowski se comunicó con Ciencias de la Computación para plantear que la AAL quería investigar sobre usos cotidianos del lenguaje en Internet, más precisamente, en redes sociales; aún más precisamente: en Twitter. Y en el caso específico de Argentina. En ese momento, los destinos de Kalinowski y el equipo de la AAL, Agustín Gravano (que dicta las materias Aprendizaje automático y Procesamiento del habla), el tesista Damián Alemán y el estudiante de doctorado Juan Manuel Pérez (que acompaña la investigación de Pérez) quedaron unidos.

Gravano dice que Kalinowski “quiere tener una fotografía, un video, mejor dicho, en tiempo real, del estado del uso del lenguaje español en diferentes lugares”, de momento, de Argentina. 

–¿Y qué cosas podrían tomar de eso?

–Depende de qué datos consigamos. Si uno pudiera, con algún tipo de tecnología, monitorear el uso del lenguaje en diferentes regiones, podría compararlos. Twitter es una herramienta muy útil para conseguir esos datos. Es un espacio homogéneo porque todo el mundo usa Twitter más o menos del mismo modo, con temas variados pero una misma forma de uso. En cambio, en otros lugares donde se pueden buscar estos datos de habla, como los foros de diarios, cambian mucho las regulaciones, si está moderado el foro, si hay diálogos, si se privilegia un tema y otro. Si tomáramos ese tipo de foros, la variación entre medios y países sería enorme. Twitter es más homogéneo.

El proyecto comenzó el año pasado. En este trabajo que, hasta el momento de terminar y presentar su tesis, realiza Alemán, la posta será tomada luego por otro estudiante camino a graduarse. Esta primera etapa de las investigaciones, en un campo en el que no hay antecedentes, el nivel de complejidad permite establecer “hipótesis del mundo de la lingüística que se pone más interesante para alguien interesado por el lenguaje: qué cosas hay en común entre las diferentes regiones, qué palabras se usan, cómo se ponen las palabras, se usan prefijos, sufijos, qué tipo de frases se arman. Todos esos datos los vamos a analizar a nivel estadístico y vamos a saber que en Córdoba usan más que acá la palabra ‘fernet’”, dice Gravano entre risas.

–¿Qué esperan construir con estos datos?

–Tener un mapa de la Argentina. Y en ese mapa encontrar diferencias de a pares: ¿cómo se habla, por ejemplo, en Córdoba en relación con Buenos Aires? También otras cosas que le interesan a Santiago (Kalinowski) de estructuras sintácticas, como el uso del doble objeto indirecto: queremos verificar si esa redundancia es típica de todo el país o del Río de la Plata. Otra cosa, por ejemplo, es ese uso que hacen en algunas regiones, que en vez de decir “comprémoslo” dicen “lo compremos”. A medida que vayamos avanzando aparecerán nuevas preguntas.

Gravano y su equipo investigan el cruce entre inteligencia artificial y lenguaje: cómo una computadora puede reconocer significados en una señal de habla. “Mi tema principal es la prosodia, que es todo lo que diferencia al texto del habla. Cuando uno transcribe un diálogo, a una persona hablando, se pierden un montón de cosas. Eso que se pierde es la prosodia: la entonación, las pausas, la velocidad del habla, cuán fuerte o suave lo digo, todas las inflexiones del habla forman parte de la prosodia. Cómo funciona eso es complejísimo y sabemos muy poco. Hay factores culturales, sociales, de edades, económicos que influyen en la forma de hablar”, detalla Gravano.

–¿Cómo se lleva eso a Ciencias de la Computación?

–Tratamos de usar todas las herramientas que tenemos en computación para poder procesar esto: agarrar una señal del habla y no sólo reconocer las palabras, sino capturar toda esa información que está en la señal. Ahí entra en juego el aprendizaje automático, que tiene que ver con programas que aprenden solos. Esto no es algo que podamos programar. Ni siquiera tenemos todavía bien claro nosotros cómo es. Y ahí entra en juego la posibilidad de que la máquina aprenda sola, con  esquemas como los de las redes neuronales: poner muchos datos y que la máquina se de cuenta. Funciona. De a poquito, funciona. Y a veces Google, que tiene muchísimos recursos, da un gran paso y suma a eso.

–¿Hay mucha gente investigando este campo?

–Hay mucho interés. La parte más comercial es la de reconocer las palabras: tu celular lo podés usar con el habla. Esas aplicaciones requieren este tipo de investigaciones de reconocimiento del habla. En el Laboratorio de Inteligencia Artificial Aplicada, somos varias personas trabajando específicamente en el habla, entre los que estamos Luciana Ferrer y yo. Hay también gente trabajando temas más mezclados, como habla y neurociencia, que busca encontrar correlatos neurológicos, qué pasa en el cerebro cuando pasan cosas en el diálogo, si te interrumpo, si te cedo la palabra. Es algo muy exploratorio todavía. Pero lo que involucra al habla son aplicaciones que ya empiezan a funcionar.

–Genera públicos también este tipo de investigación.

–Genera interés porque es apasionante. Por eso, este proyecto con la AAL, que inicialmente era más bien exploratorio, para ver si las cosas funcionaban con Juan Manuel (Pérez) y Damián (Alemán), va a crecer. Están haciendo cosas muy buenas y funcionando mucho mejor de lo que esperábamos, queda todo servido para que venga el siguiente tesista y empiece a trabajar sobre cosas más sofisticadas: no sólo contar palabras, sino investigar niveles superiores de la lingüística, la semántica, el discurso, la pragmática, que son las intenciones. Es de a poco, pero hay mucha tela para cortar.