Robot autónomo interactúa con lenguaje natural y visión

La Universidad Purdue prepara un robot autónomo que interactúa con humanos utilizando el lenguaje natural y el procesamiento de la visión. La Escuela de Ingeniería Eléctrica e Informática están desarrollando un software integrador de lenguaje y visión que puede permitir que un robot autónomo interactúe con personas en diferentes entornos y logre objetivos de navegación.

Los candidatos a doctorado Thomas Ilyevsky y Jared Johansen están trabajando con Siskind para desarrollar un robot llamado Hosh que puede integrar datos gráficos y de lenguaje en su proceso de navegación para localizar un lugar o persona específica. El equipo está desarrollando el robot a través de una subvención financiada por la National Robotics Initiative de la National Science Foundation.»El objetivo general del proyecto es decirle al robot que busque una persona, una habitación o un edificio en particular y haga que el robot interactúe con personas comunes y sin capacitación para que pregunten en lenguaje natural las direcciones hacia un lugar en particular», dijo Jeffrey Mark Siskind, profesor asociado liderando el equipo de investigación.

Este robot podría ayudar a que los autos que conducen a sí mismos se comuniquen con los pasajeros y peatones o podría completar tareas a pequeña escala en un lugar comercial como el envío de correo. El robot contribuiría al crecimiento esperado de  14 mil millones de dólares de la industria de robótica del consumidor para el año 2025, según lo proyectado por Boston Consulting Group .

El robot recibirá una tarea para ubicar una habitación, edificio o persona específica en una ubicación conocida o desconocida. Luego, el robot unirá el lenguaje y el procesamiento visual para navegar por el entorno, solicitará direcciones, solicitará que se abran las puertas o que se presionen los botones del elevador para alcanzar su objetivo.

Los investigadores están desarrollando software de alto nivel para dar al robot «conocimiento del sentido común», la capacidad de comprender objetos y entornos con intuición humana, lo que le permite reconocer las convenciones de navegación. Por ejemplo, el robot incorporará declaraciones habladas y gestos físicos en su proceso de navegación. «El robot necesita intuición a nivel humano para comprender las convenciones de navegación», dijo Ilyevsky. «Aquí es donde entra en juego el conocimiento del sentido común. El robot debe saber que las habitaciones con números pares e impares se encuentran una frente a la otra en un pasillo o que la Habitación 317 debe estar en el tercer piso del edificio».

Normalmente, el procesamiento del lenguaje natural permitirá que el robot se comunique con las personas, mientras que el software de visión por computadora permitirá que el robot navegue por su entorno. Sin embargo, los investigadores están avanzando el software para informarse unos a otros a medida que el robot se mueve. «El robot necesita entender el lenguaje en un contexto visual y la visión en un contexto de lenguaje», dijo Siskind. «Por ejemplo, al ubicar a una persona específica, el robot puede recibir información en un comentario o gesto físico y debe comprender ambos dentro del contexto de sus objetivos de navegación». Por ejemplo, si la respuesta es «Verifique a esa persona en la sala 300», el robot deberá procesar la declaración en un contexto visual e identificar en qué sala se encuentra actualmente, así como la mejor ruta para llegar a la sala 300.

Si la respuesta es «Esa persona está allí» con una señal física, el robot deberá integrar la señal visual con el significado de la declaración para identificar a la Persona A.

«Interactuar con los humanos es un problema no resuelto en la inteligencia artificial», dijo Johansen. «Para este proyecto, estamos tratando de ayudar al robot a comprender ciertas convenciones con las que se puede encontrar o anticipar que una docena de respuestas diferentes podrían tener el mismo significado. Esperamos que esta tecnología sea realmente grande, porque la industria de los robots autónomos y los autos autosuficientes se está volviendo muy grande», dijo Siskind. «La tecnología podría adaptarse a los autos que conducen por sí mismos, lo que permite que los automóviles soliciten indicaciones o que los pasajeros soliciten un destino específico, al igual que los conductores humanos».

Primero, el robot aprenderá a navegar adentro en un solo piso. Luego, para trasladarse a otros pisos y edificios, le pedirá a la gente que opere el elevador o que le abra las puertas. Los investigadores esperan progresar a misiones al aire libre en la primavera.

La Oficina de comercialización de tecnología de Purdue  ha presentado una patente provisional para el robot autónomo, y la tecnología está disponible para otorgar licencias a una empresa o empresa nueva a través de esta oficina.
La tecnología se alinea con los logros gigantes de Purdue en la celebración de los avances globales de la universidad en salud, espacio, inteligencia artificial y aspectos destacados de sostenibilidad como parte del 150 aniversario de Purdue. Esos son los cuatro temas del Festival de Ideas de la celebración de un año , diseñado para mostrar a Purdue como un centro intelectual que resuelve problemas del mundo real.