El lenguaje es lo que hace al hombre diferente de los demás seres vivos. Implica un proceso de aprendizaje que en las guaguas parten con balbuceos, para luego seguir con palabras mono o bisílabas, como sol, mamá, tata, papá, etc. Ahora, un grupo de investigadores, cuyo trabajo publica la revista PloS ONE, revela cómo un robot es capaz de adquirir esas habilidades básicas de la lengua mediante la interacción con un humano.

Eso es lo que logró hacer un robot humanoide llamado DeeChe, desarrollado por la U. de Hertfordshire (Gran Bretaña), tras relacionarse con un grupo de voluntarios que lo trataron como si fuese un niño de entre seis y 14 meses al que se le quiere enseñar a hablar. Usando palabras y objetos como cubos con colores, 15 personas interactuaron con el humanoide, logrando que este partiera con balbuceos -igual que una guagua- para seguir diciendo sus primeras palabras, la mayoría monosílabos, como red, green, tha'ts, cross y cal. Ocho minutos le tomó aprender a decir sus primeras palabras, un proceso que en un niño humano dura cerca de dos.

Humanoides avanzados

Caroline Lyon, una de las autoras del investigación, dijo a La Tercera que este trabajo "es un nuevo hito en la interacción humano- robot", ya que muestra cómo la nueva generación de humanoides es capaz de adquirir habilidades lingüísticas, algo que tendrá un impacto significativo en los futuros sistemas robóticos interactivos.

El robot, de la serie iCub, es un humanoide infantil con inteligencia artificial que posee un software con miles de posibilidades de sílabas sin conexión. Por eso, inicialmente, el robot sólo pudo balbucear y percibir una cadena de sonidos en vez de palabras. Sin embargo, después de realizar unos minutos de "conversación" con los seres humanos, en los que los participantes fueron instruidos para hablar con el robot como si fuera un niño pequeño, DeeChe pudo repetir las sílabas que más frecuentemente escuchó y luego "aprender nombres de colores y formas, además del significado de acciones simples como empujar o levantar", dijo Lyon.

"Se sabe que los bebés son sensibles a la frecuencia de los sonidos en el habla, y estos experimentos muestran cómo esta sensibilidad se puede modelar y contribuir al aprendizaje de las palabras en los robots", dijo Lyon.

La experta dijo que además el experimento demostró que las palabras pueden ser percibidas en una conversación continua y espontánea -tanto por una guagua como un robot- antes que estos conozcan la segmentación de sílabas y palabras que posteriormente se da en el lenguaje. Los siguientes pasos incluyen investigar la integración de otros modelos de percepción, como la vista o el tacto e investigar la base neurocientífica de esos procesos en humanos", dijo Lyon, quien realizó este trabajo junto a Chrystopher L. Nehaniv y Joe Saunders.