Google anunció el martes que el código de Project Gameface, su “ratón” para juegos manos libres controlado por expresiones faciales, ahora es de código abierto para los desarrolladores de Android . Esto permite a los desarrolladores integrar esta función de accesibilidad en sus aplicaciones. Luego, los usuarios pueden controlar el cursor con gestos faciales o movimientos de la cabeza, como abrir la boca para mover el cursor o levantar las cejas para hacer clic y arrastrar.
Project Gameface utiliza la cámara del dispositivo y una base de datos de expresiones faciales.
Project Gameface, anunciado originalmente para computadoras de escritorio en Google I/O del año pasado , utiliza la cámara del dispositivo y una base de datos de expresiones faciales de la API de detección de puntos de referencia faciales de MediaPipe para manipular el cursor.
«A través de la cámara del dispositivo, rastrea perfectamente las expresiones faciales y los movimientos de la cabeza, traduciéndolos en un control intuitivo y personalizado», explicó Google en su anuncio. «Los desarrolladores ahora pueden crear aplicaciones donde sus usuarios pueden configurar su experiencia personalizando las expresiones faciales, el tamaño de los gestos, la velocidad del cursor y más».
Aunque inicialmente estaba diseñado para jugadores, Google se ha asociado con Incluzza, una empresa social centrada en la accesibilidad en la India, para explorar la expansión de Gameface a otros entornos como el trabajo, la escuela y situaciones sociales.
La inspiración para Project Gameface vino del streamer de videojuegos tetrapléjico Lance Carr, que tiene distrofia muscular. Carr colaboró con Google en el proyecto con el objetivo de crear una alternativa más asequible y accesible a los costosos sistemas de seguimiento de la cabeza.