Un programa usa el razonamiento inductivo para captar conceptos generales a partir de unos pocos ejemplos
A un niño le basta ver un elefante una vez para identificar a todos los elefantes que verá en el futuro. Ya sean africanos o asiáticos, los vea en una película o en el zoo, se trate de una manada en la sabana o de uno solo tras los árboles, sabrá que está viendo elefantes.
Hasta ahora, la inteligencia artificial necesitaba miles de imágenes de elefantes en todo tipo de situaciones para identificar a uno nuevo que no estuviera en su base de datos. A diferencia de los humanos, no era capaz de generalizar basándose en unos pocos ejemplos. Sin embargo, este tipo de aprendizaje tan humano acaba de ser replicado por una máquina.
Un grupo de investigadores americanos ha creado un algoritmo matemático que permite a las máquinas aprender a la manera de un niño. Esta forma inductiva de adquirir nuevo conocimiento es una de las fortalezas de la versatilidad humana. Ante un nuevo concepto u objeto, bastan unos cuantos ejemplos, a veces solo uno, para extraer de ellos los elementos básicos que componen el objeto y las relaciones entre sus partes. De esta manera, el niño apenas necesitará entrenamiento para distinguir un elefante de un mamut. Aún más importante, este tipo de aprendizaje lleva dentro el germen de la creatividad. Sabiendo lo que es un elefante, los humanos pueden imaginar nuevos ejemplos de elefante, incluso el de un elefante rosa volando.
"Hay muchos sistemas de aprendizaje [de máquinas]", dice el profesor de la Universidad de Toronto (Canadá) y cocreador del algoritmo, Ruslan Salakhutdinov. "Por lo general, necesitan cientos de miles de ejemplos para entrenar el concepto que uno quiere aprender. Pero, los humanos, son capaces de captar esas categorías similares, esos conceptos parecidos, con solo unos cuantos ejemplos, cuando no un único entrenamiento", añade Salakhutdinov, considerado uno de los pioneros de las redes neuronales artificiales claves para el aprendizaje de las máquinas (o machine learning, por su terminología original en inglés).
Sistemas tan poderosos como el superordenador Watson, el reconocimiento facial de Facebook o el asistente personal Siri de Apple usan este aprendizaje de máquinas basado en acaparar tantos ejemplos como se pueda, acumular muchos datos y relacionarlos mediante algoritmos.
El algoritmo creado por Salakhutdinov y dos colegas de universidades estadounidenses no pretende que una máquina vea elefantes sino que pueda identificar caracteres escritos a mano de unos 50 sistemas de escritura, desde el alfabeto griego hasta el sánscrito, pasando por algunos inventados, como el de la serie Futurama. Se trata de una biblioteca de 1.600 tipos de caracteres diferentes. La variabilidad posible es enorme y eso sin tener en cuenta las posibles tipografías (Arial, Comic Sans, Helvetica...) en cada sistema o el estilo caligráfico del que escribe.
"La idea para este algoritmo surgió de un hallazgo sorprendente que hicimos mientras recopilábamos una base de datos de caracteres escritos a mano por todo el mundo", explica el investigador de la Universidad de Nueva York y coautor del estudio Brenden Lake."Vimos que si le pides a un grupo de personas que dibujen un nuevo carácter, existe un patrón persistente en la forma en que lo hacen: tienden a crear nuevos caracteres de la misma manera, basándose en las partes o trazos que han dibujado antes", añade.
El algoritmo que han presentado en un artículo de la revista Science opera de una manera similar. Tras mostrarle un carácter escrito por una o dos manos diferentes, la máquina lo descompone en sus partes fundamentales y encuentra las relaciones que hay entre ellas. De esta manera, el sistema puede identificar decenas y decenas de nuevas versiones de un carácter e, incluso, nuevos caracteres del mismo alfabeto.
Aunque el algoritmo se diseñó para caracteres escritos a mano, los investigadores creen que su enfoque se puede aplicar a otros campos, como la visión artificial, el reconocimiento de voz o procesado del lenguaje natural. Como dice Salakhutdinov: "esperamos que este trabajo ayude a guiar el avance de la inteligencia artificial, desarrollando una nueva generación de sistemas inteligentes, de máquinas inteligentes que puedan desplegar o a la menos acercarse a la inteligencia humana".
Los algoritmos cada vez lo hacen mejor
Como recuerda el profesor del Laboratorio de Inteligencia Artificial y Ciencias de la Computación del Instituto Tecnológico de Massachusetts, el barcelonés Antonio Torralba, "aprender con pocos ejemplos era uno de los objetivos iniciales de la inteligencia artificial". Por eso le parece tan relevante este nuevo trabajo. "Han construido un sistema con las reglas básicas por las que se compone un nuevo objeto. Una vez se conocen esas reglas básicas, puedes aprender nuevos objetos porque tienes pocas cosas que identificar", comenta el experto español en aprendizaje de máquinas y visión artificial.
El avance de la inteligencia artificial está reduciendo las esferas de acción exclusivamente humanas. Superados hace tiempo por las máquinas en potencia de cálculo, capacidad para almacenar información o para establecer relaciones entre los datos, los humanos ahora empiezan a ser tuteados en inteligencia.
Los humanos lo hacen peor en la bolsa, donde, al menos en Estados Unidos, más del 75% de las operaciones las hacen máquinas. La concesión de créditos, las operaciones en el quirófano o incluso qué cosecha sembrar son decisiones cada vez más automatizadas. Los algoritmos también están detrás de las recomendaciones de lectura que hace Amazon, los emparejamientos en las páginas de citas en línea o la conducción de los vehículos sin conductor (humano) que empezarán pronto a llegar a las carreteras.
"¿Los humanos deberían conducir coches? Yo creo que no y que debería estar prohibido", sostiene el experto en big data y machine learning de ASPgems, Juantomás García. Para él, los algoritmos no están reduciendo la esfera de las acciones humanas, sino que la están mejorando. Como él dice, "hay millones de acciones que no tiene sentido que las sigamos haciendo los humanos".
Fuente: http://elpais.com/elpais/2015/12/10/ciencia/1449736542_882081.html
No hay comentarios:
Publicar un comentario