Google AI se puede elegir específicos voces por mirar a la cara

la sede de Google

Google investigadores han desarrollado un profundo sistema de aprendizaje que puede escoger específicos voces por mirar a la gente’s caras cuando’re hablando.

Google’s equipo entrenado la red neuronal para detectar un individuo que habla por sí mismo. Después de eso, Google creó virtual partes con un ruido de fondo con el fin de enseñar a la red neuronal para aislar múltiples voces en su propia y distinta de las pistas de audio.

La red neuronal’s de la inteligencia artificial (IA) puede crear una limpia de la pista de audio se centra en una persona’s cara. Funciona incluso si una persona se cubre parcialmente su rostro con gestos de la mano o de un micrófono.

también distingue entre dos personas claramente tratando de competir el uno contra el otro, visto en el Equipo de Coco clip de arriba.

Google está buscando diferentes formas de utilización de esta. El uso es para el vídeo servicios de mensajería como Google Duo podría ser potencialmente útil en especial cuando los chats de vídeo tienen lugar en una habitación llena de gente. Sin embargo, en el video de abajo parece que la IA puede también ser utilizado para el espionaje.

Audio-visual del habla de la separación fue publicada en Google’s de investigación blog por los ingenieros de software de Orán Lang y Inbar Mosseri.

Fuente: Google Blog de Investigación a Través de: Engadget en español