corner
Archivo/Reportajes
     
   
a
 


Inicio

 
Tecnología
A Marvin Minsky: Sobre Inteligencia Artificial

por Fernando Bonsembiante
 

Pórtico Luna

Además del famoso 'laboratorio de medios', en el MIT hay otro laboratorio que es famoso y respetado por todos los expertos en la materia: el de inteligencia artificial. Marvin Minsky, su director, estuvo en Buenos Aires para la feria del libro.
La obra de Minsky puede resumirse en dos de sus libros: 'La sociedad de la mente', editada en Buenos Aires pero inconseguible, y 'The Turing Option', también editada en castellano. El primer libro es la explicación de sus ideas sobre la inteligencia y el funcionamiento del cerebro, base para todo su trabajo de investigación en inteligencia artificial. El otro es una novela de ciencia ficción, escrita junto a Harry Harrison. Ambos libros expresan su fe en la posibilidad de crear una computadora o un programa capaz de pensar como lo hace un humano.
La base de sus ideas es que la mente no es una unidad, sino una acumulación de 'agentes', cada uno con una tarea específica. Estos agentes interactúan entre sí y el resultado es lo que nosotros llamamos 'pensamiento' o 'comportamiento'. Puede haber dos agentes que traten de hacer lo mismo pero de formas distintas, puede que otros tengan objetivos opuestos, por lo que un tercero debe decidir que hacer. El resultado es una lucha de intereses en nuestro cerebro, de la que somos testigos cuando no sabemos si ir al cine o quedarnos en casa viendo televisión, o no podemos decidirnos entre la morocha de enfrente y la rubia de la otra cuadra. La mente es una sociedad, con sus alianzas, sus guerras, sus discusiones, con agentes que ceden en parte para obtener beneficios luego, o con intrigas para obtener el poder a costa de los demás.

¿Cuando cree que será posible tener máquinas que actúen como un cerebro humano?

No hay forma de saber cuando, no sabemos cuanto tiempo va a tomar resolver cada problema. Los investigadores no se ponen de acuerdo en qué es lo próximo que hay que hacer, y hacen muchas cosas distintas. La mayoría están equivocados. Eventualmente van a descubir qué es lo que funciona. La gente estuvo trabajando en esto por unos cincuenta años, y ahora las computadoras pueden hacer muchas cosas interesantes. Estoy seguro de que en cincuenta años más van a poder hacer casi todo lo que la gente puede hacer.
Pienso que la ciencia de la inteligencia artificial es la parte más avanzada de la psicología hoy en día. Cuando aprendamos cómo hacer que una máquina aprenda, probablemente aprendamos algo sobre cómo aprende la gente. No va a ser lo mismo, porque una persona es más complicada que una computadora de hoy, pero todo lo que descubrimos sobre computadoras nos da más información sobre lo que es posible para la gente.
Otra forma de decirlo es: antes de las computadoras, la psicología estaba trabada, porque los psicólogos no tenían idea de cómo podía funcionar una máquina que aprendiera. Ahora, con la inteligencia artificial, tenemos unas diez teorías sobre cómo hacer que las cosas aprendan. Estoy seguro de que los humanos usan cuatro o cinco de esas formas, y las otras no se aplican al cerebro. Ahora los psicólogos tienen muchas ideas nuevas para usar.

¿Cuál es la relación de su teoría con la Freudiana?


Freud fue la primera persona en entender que la mente tiene varias partes. Hizo la primer teoría sobre la mente como computadora con distintos programas, varios procesos distintos, que no siempre están de acuerdo. Muchas de mis ideas vienen de su teoría de la mente con varias partes. Pienso que es necesario que una inteligencia artificial tenga un ego, un superego, etcétera. Si queremos hacer una máquina útil, le tenemos que dar conocimiento sobre cómo hacer cosas, y qué cosas no están permitidas. Para eso va a necesitar censores (como en la teoría de Freud), va a necesitar distintos tipos de objetivos. No va a tener la misma clase de intereses que nosotros, no tiene por que ser exactamente igual. El superego es necesario porque si no la computadora va a perder tiempo en cosas que no funcionan.

¿Será fácil programar un código moral en una computadora? En su novela, 'The Turing Option', la Inteligencia Artificial no tenía una moral como lo que estamos acostumbrados nosotros, aunque se comportaba con ciertas reglas de conducta.

Creo que va a ser fácil hacer algunas reglas. Los códigos morales no responden muy bien a las preguntas, así que va a ser difícil hacerlas confiables, como con la gente, porque los códigos morales están sobre-simplificados. El problema no es con la computadora, sino con la idea de un código moral, porque depende demasiado de las opiniones.

¿Cuál es la contribución más importante de la inteligencia artificial en el día de hoy?

Principalmente controlar procesos industriales. En la oficina hay máquinas que pueden balancear presupuestos, tomar algunas decisiones, pero no es útil para la persona promedio, en su casa. Eso es porque las máquinas no saben nada sobre las casas.
Pienso que el sentido común es el problema más importante. Porque podemos hacer que las máquinas hagan cosas específicas muy fácil. Pero no hicimos mucho progreso para que las máquinas sepan las cosas ordinarias de todos los días. Las máquinas no saben cuando a la gente le gusta o no le gusta algo, no saben que la gente necesita dormir, no saben por qué la gente quiere dinero, muchas cosas simples que todas las personas saben.
Pienso que va a tomar mucho tiempo hacer que las máquinas sean útiles para la gente ordinaria. Las máquinas deben entender cada palabra de tu idioma si no no pueden entender los objetivos e interesas de uno. Por ejemplo, las máquinas pueden jugar al ajedrez muy bien, pero no pudimos programar a una máquina para que sepa por qué a la gente le gusta jugar al ajedrez. Por ahora hicimos muchas cosas fáciles, pero tenemos que empezar a trabajar en problemas más difíciles.

En este momento la expresión 'inteligencia artificial' está un poco pasada de moda. Hace algunos años, en los 60 y los 70, todo programa tenía 'inteligencia artificial'. Ahora nadie hace marketing de un producto diciendo que tiene inteligencia artificial.

No pienso que debamos decir que es inteligencia artificial, hasta que no tenga sentido común. Si a una persona le dicen que algo es inteligente piensa que se puede comunicar y puede resolver problemas. No es una palabra útil para los negocios.

¿Quién es su escritor de ciencia ficción favorito?

En este momento, son tres. Vernor Vinge, Gregory Benford, quien es un físico, y David Brin. Hay uno nuevo, Greg Egan, que es australiano. Escribió un libro que se llama 'Cuarentena', donde el resto del universo decide que la Tierra es peligrosa porque está haciendo un tipo equivocado de mecánica cuántica. Sabe mucho de ciencia, y sus historias tienen muchas ideas nuevas.

¿Qué busca en una historia de ciencia ficción?

Es una pregunta maravillosa, porque estamos teniendo una entrevista y me preguntás sobre qué va a pasar dentro de cincuenta años. Creo que para predecir el futuro hay que pensar mucho, y es mucho trabajo. Yo no hago mucho ese trabajo, si quiero saber lo que va a pasar dentro de cincuenta años voy a buscar esas cuatro personas, escritores de ciencia ficción. Es su profesión. Dicen 'si tuviesemos realidad virtual a bajo costo, ¿qué va a pasar?'. La última novela de Greg Egan, no me acuerdo de su nombre [Ciudad Permutación], es una novela acerca de la realidad virtual, donde si uno es rico puede ser copiado dentro de la máquina, hacer una réplica de uno dentro de la computadora, para siempre. ¿Cómo cambiaría esto a la sociedad? Sé que esto va a pasar, no sé cuando. Pero hace falta uno de estos escritores con imaginación para poder entender cómo cambiaría esto al mundo. Antes de esta gente mi escritor favorito era Larry Niven.

No mencionó a Harry Harrison, su co-autor.

Harry Harrison, Isaac Asimov y Theodore Sturgeon eran mi inspiración de la generación anterior. Pienso que Harrison es una persona que puede imaginar muchos futuros, es amigo mío y hablamos de estas cosas. Pero ahora está escribiendo principalmente otro tipo de ciencia ficción, que predice la vida en otro tipo de mundos, no tan factibles, distintos al nuestro. También le gustan los super heroes...

¿Está pensando en escribir otra novela?

Escribo demasiado lentamente. Cuando termine mi próximo libro pienso que voy a tratar de escribir otra novela. Si puedo escribirla rápido lo voy a hacer. Se me hace muy difícil hacer los personajes.

Quizá otra colaboración...

Sí, puede ser. Trabajar con Harry o con otro de estos escritores que sepan cómo hacer personajes. Me impresionan mucho los escritores que pueden hacer personajes. Es como crear una persona, es como la inteligencia artificial.

¿Qué piensa de la nanotecnología?

Pienso que es muy posible. Va a ser la industria más importante del siglo próximo. Probablemente tarde un tiempo en hacerse práctica. La industria más importante de ahora puede ser la química. Todo está hecho con productos químicos. La mayor parte de la economía tiene que ver con productos químicos y transformarlos en materiales. Dentro de cien años la nanotecnología puede ser la base de la mayoría de las fábricas. Muchos profesores del MIT dicen que es imposible, nunca va a pasar. Pero nuestros cuerpos son nanotecnológicos. Todo lo que comemos es así. Son pequeñas fábricas, que producen los materiales, así que obviamente es posible.

Quizá en el futuro podamos cultivar la comida por nanotecnología o cultivar computadoras.

Exactamente. El problema es que los profesores más conservadores del MIT dicen que es demasiado bueno como para ser verdad. Están en contra no porque piensen que es imposible, sino porque parece demasiado bueno. Ser conservador y pensar así es correcto siempre, excepto algunas veces, como en este caso, con la nanotecnología o la inteligencia artificial. Es bueno ser conservador porque normalmente uno tiene razón.

¿Cuál es la opinión que tiene la gente sobre sus ideas?

Sobre 'La sociedad de la mente', la gente es muy positiva. Una de las ideas es que si uno quiere que un programa funcione, uno no debe hacer lo normal. Lo normal es escribir un programa, que va a tener algunos bugs, correjir los bugs, y diez años después el programa tiene pocos bugs. Lo que yo digo es que uno debería escribir cinco programas que hagan lo mismo de distintas maneras. Después hacer un manager que decida qué programa usar. Es mejor, porque en vez de arreglar los bugs se cambian los métodos. A todos les gusta eso. Entonces dicen, quiero ver como funciona uno de esos. Eso me averguenza, porque esto se hace solamente en pequeña escala, por poca gente. Es un buen ejemplo de cuando la gente dice 'sí, esta debe ser una buena idea', pero tengo que decirles que es muy difícil de hacer y no se hicieron suficientes experimentos como para probarlo. Es como funciona el cerebro. El ID tiene poderosos deseos de hacer algo, el superego no puede detenerlo, entonces hace otra cosa para distraerlo o engañarlo. La actividad humana es resultado de una guerra. Cuando uno toma una decisión, el 1% de uno tuvo éxito en suprimir al 99% restante.

¿Qué opinan de las consecuencias sociales de sus ideas?

Bueno, no sabemos cuales son. La gente suele preocuparse mucho. Por ejemplo, si uno les muestra cómo los robots pueden hacer trabajos, la gente dice '¿y yo qué voy a hacer?'. No tengo respuestas.

¿No siente ninguna presión ética sobre su trabajo?

No, porque sé que mi sentido ético es tan malo que si insisto en él va a ser peor. Quisiera que la ética venga de gente que sepa de eso. No pienso que sea bueno pedirle a los científicos que entiendan las consecuencias de su trabajo, porque no pueden. Pasan todo su tiempo pensando en su trabajo, así que no piensan en la ética o en las consecuencias.

http://www.ubik.to/303/minsky2.htm

http://wintermute.homelinux.org/ia/Minsky_Pensamiento_Ordenadores.htm