This site uses cookies.
Some of these cookies are essential to the operation of the site,
while others help to improve your experience by providing insights into how the site is being used.
For more information, please see the ProZ.com privacy policy.
This person has a SecurePRO™ card. Because this person is not a ProZ.com Plus subscriber, to view his or her SecurePRO™ card you must be a ProZ.com Business member or Plus subscriber.
Affiliations
This person is not affiliated with any business or Blue Board record at ProZ.com.
English to Spanish: Why machines do not understand human speech General field: Tech/Engineering Detailed field: Computers (general)
Source text - English http://news.bbc.co.uk/2/hi/programmes/click_online/8609723.stm
Why machines do not understand human speech
From the moment people are born, they learn to make associations and to understand words depending on the context of a sentence.
This learning continues throughout life, so teaching machines to make common sense assumptions about language is a mammoth task.
Over the years researchers have been making in-roads into improving voice recognition and speech-to-text software.
But being able to recognise words is still a long way from machines actually understanding what people are saying.
Now the American Palo Alto Research Centre (Parc) is working on an ambitious project with the aim to take computers' language skills to the next level.
Parc's research on natural language processing was bought by search engine Powerset who combined it with data from online encyclopaedia Wikipedia.
Users can search Powerset with keywords, phrases, or simple questions - the results are aggregated from multiple Wikipedia articles. The aim is to provide more accurate results and answer questions directly.
Parc researcher Cleo Condoravdi said search engines are not refined: "You put in your keywords, you get some results, a lot of them might be relevant but it's up to you the user to sort through," she said.
"Now the dream would be if you could just ask your question and get the answer directly," she added.
'Sorry, try again'
Microsoft has now bought Powerset technology for use on its Bing search engine.
Mr Bobrow said how models of the world helps machines begin to understand context
Fifteen years ago Ask Jeeves was one of the first search engines to make use of natural language processing.
This approach focuses on developing models of the world around us and how we talk to one another naturally.
Danny Bobrow, a research fellow at Parc, said teaching life-long lessons to machines is a never-ending job.
"People take 15 or 20 years to really get to the place where we think we know everything, which is not true, as we find out as we go further on," he said.
"So that's why it takes so long - you have to encode for the computer all this background knowledge".
But Mr Bobrow believes this kind of intelligent search could become a reality in the next five to 10 years.
"We'll see specialised programs that understand specific things - it could be sports, recipes, or finances.
"What you will probably have is voice recognition and then [the machine] feedback would be able to say 'I didn't understand you, try again'."
More accessible
Voice recognition, which uses natural language processing, is still far from perfect but it has developed sufficiently to become integrated into mobile operating systems such as Android.
The obstacles for this system are not only technological but also environmental, as Google research scientist Mike Cohen explained.
"There's background noise, and people may be saying all sorts of things with pauses and hesitations like 'um' and 'erm' - that's one thing that makes it hard," he said.
"People can talk about almost anything. It's enormous vocabs, unpredictable queries, and we need to be able to handle that," he added.
Google is taking voice technology one step further and employing it to automatically transcribe audio speech into text captions on YouTube videos.
The machine-generated subtitles are not always accurate, but they make video content more accessible for people dependent on visual communication.
Ken Harrenstien, a software engineer at Google, said the captions benefit everyone.
"On the surface it's built for accessibility. But it's for anyone in the world no matter what language they speak - it makes the information available to anyone whether they're hearing it or not," he said.
Translation - Spanish ¿Porque es que las maquinas no comprende el habla humana?
Desde el momento de su nacimiento, la gente aprende hacer asociaciones y comprender las palabras dependiendo en el contexto de la oración.
Este aprendizaje continua toda la vida, el cual hace enseñar a las maquinas hacer asunciones básicas de lenguaje una tarea muy difícil.
Por los años los investigadores han hecho avances para mejorar el reconocimiento de voz y software de voz-a-texto.
Pero el poder reconocer las palabras sobrepuja los limites de que ya las maquinas puedan comprender lo que una persona dice.
Ahora el Centro Americano de Investigaciones de Palo Alto (Parc) esta trabajando en un proyecto ambicioso con la meta de mejorar la habilidad del lenguaje de las computadoras.
Las investigaciones de Parc sobre el procesamiento de lenguaje natural fueron compradas por el metabuscador Powerset el cual fue combinado con data de la enciclopedia en línea Wikipedia.
Los usuarios pueden buscar palabras claves, frases o preguntas simples con Powerset – los resultados se colectan de artículos múltiples de Wikipedia. La meta es proveer resultados más precisos y contestar las preguntas directamente.
El investigador de Parc, Cleo Condoravdi, dijo que los metabuscadores no están lo suficiente perfeccionados, “Uno introduce sus palabras claves, y recibe algunos resultados, mucho de ellos tal vez son pertinentes pero depende en usted, el usuario, que ordene la información.
“Ahora el sueño seria si pudiese solo presentar su pregunta y recibir la respuesta directamente,” ella agrego.
“Por favor atente de nuevo”
Microsoft ya ha comprado la tecnología Powerset para el uso en su metabuscador Bing.
Hace quince años Ask Jeeves fue uno de los primeros metabuscadores que hicieron uso del procesamiento natural del lenguaje.
Este método enfoca en como los modelos en vía de desarrollos del mundo que nos rodea y en como hablamos naturalmente uno con el otro.
Danny Bobrow, un investigador académico en Parc, dijo las lecciones que le toman a uno toda la vida para aprender presenta una tarea perpetua cuando se trata de la enseñanza a la maquinas.
“La gente toma 15 o 20 años para realmente acontecer al punto donde pensamos que ya lo sabemos todo, cual es una equivocación la cual realizamos con ya que seguimos progresando.
“Y por eso es que toma tanto tiempo – uno tiene que codificar para la computadora todo este conocimiento previo.”
Pero el Sr. Bobrow cree que este tipo de búsqueda inteligente puede convertirse en realidad dentro los próximos 5 a 10 años.
“Veremos programas especializados que comprenden las ideas especificas – ya sea el deporte, recetas de cocina, o las finanzas.”
“Lo que tal vez resultara será el reconocimiento de voz y después la respuesta [maquinal] podrá decir, “No entiendo, por favor atenta de nuevo’.”
Más accesible
Al reconocimiento de voz, cual usa el procesamiento natural del lenguaje, le falta mucho para ser desarrollado lo suficiente para poder integrarlo a los sistemas de operación móvil tal como es Android.
“Los obstáculos que se le presentan a este sistema no solo son tecnológicos pero también, medioambientales, como explico el investigador científico Mike Cohen.”
“Existe ruido de fondo, y la gente puede estar diciendo todo tipo de cosas con pausas y titubeos, como “ah” y “eh” –ese es un aspecto que lo hace complicado,” el dijo.
Google esta promoviendo la tecnología de voz mas allá y empleándola para automáticamente transcribir de voz en audio a subtítulos para videos en Youtube.
Los subtítulos generados por maquina no siempre son precisos, pero ayudan hacer el contento de video mas accesible para la gente que depende en la comunicación visual.
Ken Harrenstien, un ingeniero de software empleado en Google, dijo que los subtítulos proveerán beneficio a todos.
“En la superficie es algo que fue establecido para facilitar la accesibilidad. Pero es para cualquier persona en el mundo, y no importa el lenguaje con el que se expresen – hace que la información sea disponible a cualquier persona, ya lo estén oyendo o no,” el dijo.