Cómo un robot de asistencia alimentaria pasó de recoger macedonias a comidas completas

20.11.2023

Según datos de 2010, alrededor de 1,8 millones de personas en Estados Unidos no pueden comer por sí mismas. Sin embargo, entrenar a un robot para que alimente a las personas plantea una serie de retos a los investigadores. Los alimentos presentan una variedad casi infinita de formas y estados (líquido, sólido, gelatinoso), y cada persona tiene unas necesidades y preferencias únicas.

University of Washington

Un equipo dirigido por investigadores de la Universidad de Washington creó un conjunto de 11 acciones que un brazo robótico puede realizar para coger casi cualquier alimento que se pueda coger con un tenedor. Esto permite al sistema aprender a coger nuevos alimentos durante una comida. Aquí, el robot coge fruta.

Un equipo dirigido por investigadores de la Universidad de Washington creó un conjunto de 11 acciones que un brazo robótico puede realizar para coger casi cualquier alimento que se pueda alcanzar con un tenedor. En las pruebas realizadas con este conjunto de acciones, el robot recogió los alimentos más del 80% de las veces, que es el punto de referencia especificado por el usuario para uso doméstico. El pequeño conjunto de acciones permite al sistema aprender a coger nuevos alimentos durante una comida.

El equipo presentó sus resultados el 7 de noviembre en la Conferencia 2023 sobre Aprendizaje Robótico, celebrada en Atlanta.

UW News habló con los coautores Ethan K. Gordon y Amal Nanavati -estudiantes de doctorado de la Escuela Paul G. Allen de Ciencias de la Computación e Ingeniería- y con el coautor Taylor Kessler Faulkner, becario postdoctoral de la Escuela Allen, sobre los éxitos y desafíos de la alimentación asistida por robots.

El Laboratorio de Robótica Personal lleva varios años trabajando en la alimentación asistida por robots. ¿Cuál es el avance de este trabajo?

Ethan K. Gordon: Me incorporé al Personal Robotics Lab a finales de 2018, cuando Siddhartha Srinivasa, profesor de la Allen School y autor principal de nuestro nuevo estudio, y su equipo habían creado la primera iteración de su sistema robótico para aplicaciones de asistencia. El sistema iba montado en una silla de ruedas y podía coger diversas frutas y verduras en un plato. Estaba diseñado para identificar cómo estaba sentada una persona y llevarle la comida directamente a la boca. Desde entonces, ha habido bastantes iteraciones, la mayoría relacionadas con la identificación de una amplia variedad de alimentos en el plato. Ahora, el usuario con su dispositivo de asistencia puede hacer clic en una imagen de la aplicación, una uva por ejemplo, y el sistema puede identificarla y cogerla.

Taylor Kessler Faulkner: Además, hemos ampliado la interfaz. Todos los sistemas de accesibilidad que la gente utiliza para interactuar con sus teléfonos -principalmente la navegación por control vocal o bucal- pueden utilizarse para controlar la aplicación.

EKG: En este trabajo que acabamos de presentar, hemos llegado al punto de poder coger casi todo lo que un tenedor puede manejar. No podemos coger sopa, por ejemplo. Pero el robot puede coger desde puré de patatas o fideos hasta ensalada de frutas o de verduras, pasando por pizza precortada, sándwiches o trozos de carne.

En el trabajo anterior con la macedonia, estudiamos qué trayectoria debía seguir el robot si se le daba una imagen de la comida, pero el conjunto de trayectorias que le dábamos era bastante limitado. Sólo cambiábamos el paso del tenedor. Si quieres coger una uva, por ejemplo, las púas del tenedor tienen que ir rectas hacia abajo, pero para un plátano tienen que estar inclinadas, porque si no se resbala. Luego estudiamos cuánta fuerza debíamos aplicar para cada alimento.

En este nuevo trabajo, analizamos cómo coge la gente los alimentos y utilizamos esos datos para generar un conjunto de trayectorias. Encontramos un pequeño número de movimientos que la gente utiliza realmente para comer y nos decidimos por 11 trayectorias. Así, en lugar de un simple movimiento arriba-abajo o de acercamiento en ángulo, se utilizan movimientos de pala o de contoneo dentro del alimento para aumentar la fuerza del contacto. Este pequeño número aún tenía la cobertura para recoger una gama mucho mayor de alimentos.

Creemos que el sistema ya está en condiciones de ser probado con personas ajenas al grupo de investigación. Podemos invitar a un usuario a la UW y colocar el robot en una silla de ruedas, si tiene el aparato de montaje preparado, o en un trípode junto a su silla de ruedas, y probar una comida entera.

Para ustedes, como investigadores, ¿cuáles son los retos vitales que tienen por delante para conseguir que esto sea algo que la gente pueda utilizar en sus casas todos los días?

EKG: Hasta ahora hemos hablado del problema de recoger la comida, y hay más mejoras que se pueden hacer aquí. Luego está el problema de llevar la comida a la boca de una persona, así como la forma en que la persona interactúa con el robot y el grado de control que la persona tiene sobre este sistema, al menos parcialmente autónomo.

TKF: En los próximos dos años esperamos personalizar el robot para cada persona. Cada persona come de una forma diferente. Amal ha hecho un trabajo muy interesante sobre la comida social, en el que ha puesto de relieve que las preferencias de la gente se basan en muchos factores, como su situación social y física. Así que nos preguntamos: ¿Cómo podemos obtener información de las personas que están comiendo? ¿Y cómo puede el robot utilizar esa información para adaptarse mejor a la forma en que cada persona quiere comer?

Amal Nanavati: Hay varias dimensiones diferentes que podemos personalizar. Una son las necesidades del usuario: Hasta dónde puede mover el cuello el usuario influye en lo cerca que tiene que estar el tenedor de él. Algunas personas tienen una fuerza diferencial en distintos lados de la boca, por lo que el robot podría tener que alimentarles desde un lado concreto de la boca. También hay un aspecto del entorno físico. Los usuarios ya tienen un montón de tecnologías de asistencia, a menudo montadas alrededor de la cara si esa es la parte principal de su cuerpo que es móvil. Estas tecnologías pueden utilizarse para controlar su silla de ruedas, interactuar con su teléfono, etc. Por supuesto, no queremos que el robot interfiera con ninguna de esas tecnologías al acercarse a la boca.

También hay consideraciones sociales. Por ejemplo, si estoy conversando con alguien o viendo la tele en casa, no quiero que el brazo del robot se acerque a mi cara. Por último, están las preferencias personales. Por ejemplo, entre los usuarios que pueden girar un poco la cabeza, algunos prefieren que el robot venga de frente para poder vigilarlo mientras se acerca. Otros creen que eso les asusta o les distrae y prefieren que el mordisco les llegue por el lateral.

Una de las principales líneas de investigación es entender cómo podemos crear formas intuitivas y transparentes para que el usuario adapte el robot a sus propias necesidades. Estamos estudiando las ventajas y desventajas de los métodos de personalización en los que es el usuario quien lo hace, frente a otras formas más centradas en el robot en las que, por ejemplo, el robot prueba algo y dice: "¿Te ha gustado? Sí o no". El objetivo es entender cómo se sienten los usuarios con estos diferentes métodos de personalización y cuáles dan lugar a trayectorias más personalizadas.

¿Qué debe entender el público sobre la alimentación asistida por robots, tanto en general como en concreto sobre el trabajo que realiza su laboratorio?

EKG: Es importante fijarse no sólo en los retos técnicos, sino en la escala emocional del problema. No es poca la gente que necesita ayuda para comer. Hay varias cifras, pero en Estados Unidos hay más de un millón de personas. Y necesitar a otra persona cada vez que tienes que hacer ese acto tan íntimo y necesario puede hacer que la gente se sienta como una carga o cohibida. Por eso, toda la comunidad que trabaja en el campo de los dispositivos de asistencia intenta fomentar la sensación de independencia de las personas con este tipo de limitaciones físicas de la movilidad.

AN: Ni siquiera estas cifras de siete dígitos engloban a todo el mundo. Hay discapacidades permanentes, como una lesión medular, pero también hay discapacidades temporales, como romperse un brazo. Todos podemos enfrentarnos a una discapacidad en algún momento a medida que envejecemos y queremos asegurarnos de que disponemos de las herramientas necesarias para que todos podamos llevar una vida digna e independiente. Además, por desgracia, aunque tecnologías como ésta mejoran enormemente la calidad de vida de las personas, es increíblemente difícil que las aseguradoras estadounidenses las cubran. Creo que el hecho de que más gente conozca el potencial de mejora de la calidad de vida permitirá un mayor acceso".

Otros coautores del artículo son Ramya Challa, que completó esta investigación como estudiante de licenciatura en la Escuela Allen y ahora está en la Universidad Estatal de Oregón, y Bernie Zhu, estudiante de doctorado de la UW en la Escuela Allen. Esta investigación ha sido financiada parcialmente por la National Science Foundation, la Office of Naval Research y Amazon.

Nota: Este artículo ha sido traducido utilizando un sistema informático sin intervención humana. LUMITOS ofrece estas traducciones automáticas para presentar una gama más amplia de noticias de actualidad. Como este artículo ha sido traducido con traducción automática, es posible que contenga errores de vocabulario, sintaxis o gramática. El artículo original en Inglés se puede encontrar aquí.

Más noticias del departamento ciencias

Noticias más leídas

Más noticias de nuestros otros portales

La IA está cambiando el sector de la alimentación y las bebidas