honoris kay 2

Alan Kay, informático, nuevo doctor Honoris Causa de la Universidad de Murcia

Alan Kay, doctor Honoris Causa de la Universidad de Murcia

 “Lo más novedoso de los ordenadores es que pueden ayudarnos a representar y pensar sobre ideas importantes”

Traducción del inglés: Jesús Joaquín García Molina

“Los ordenadores son como instrumentos musicales cuya música son las ideas”

Siempre ha sabido que “la mejor manera de predecir el futuro es inventarlo”. Por eso, Alan Kay no se detuvo en las incipientes posibilidades de aquellos rudimentarios ordenadores que comenzó a manejar en los años 60.

Aquellos armatostes escondían todo un universo tras ellos, y Alan Kay supo imaginarlo. Un hecho tan nimio y familiar como utilizar el ratón del ordenador, de acceder a toda la información a través de iconos que abren ventanas, o de llevar bajo el brazo un ordenador para utilizarlo en cualquier lugar era impensable hace décadas. Y Alan Kay tuvo mucho que ver en estos inventos. Él fue el primero en imaginarlos y en poner las condiciones para que algún día llegaran a ser realidad.

El pasado 28 de enero, día de Santo Tomás d Aquino, Alan Kay fue investido Doctor Honoris Causa por la Universidad de Murcia. Universidades asiáticas, europeas y americanas nos precedieron. Pero el famoso informático, que hace unos años recibió el premio Turing, considerado el Nobel de la Informática, sabe que los galardones son, ante todo, un medio de llamar la atención sobre el área de la informática, en la que trabaja y por la que se apasiona desde hace casi medio siglo.
Apasionado de la música, -un arte que compara constantemente con la informática- Alan Kay sabe que lo más importante de los ordenadores es que “pueden ayudarnos a representar y pensar sobre ideas importantes”, por eso, este informático dedica sus principales esfuerzos desde hace casi cuatro décadas a intentar hallar nuevas formas de aprendizaje para los niños a través de los ordenadores.

El rector (der) entrega el birrete al padrino, Jesuús García Molina, en presencia de Alan Kay.La Facultad de Informática de la Universidad de Murcia también ha querido reconocer con esta distinción la labor de los pioneros de la programación que en la década de los sesenta y setenta sentaron las bases de una nueva disciplina científica que ha jugado un papel clave en la emergencia de la Sociedad de la Información: la programación de ordenadores. Alan Kay es considerado el padre de la forma de programar más extendida en la actualidad: la programación orientada a objetos. A continuación, Campus Digital ofrece una extensa entrevista con Alan Kay. Jesús Joaquín García Molina, Padrino del nuevo doctor Honoris Causa, ejerce de inmejorable traductor de sus declaraciones.

-Pregunta: Por sus contribuciones a la informática personal y por la invención de la programación orientada a objetos, ha recibido el premio Turing, considerado el Nobel de Informática, y otros importantes premios y reconocimientos por todo el mundo. ¿Qué significa para usted ser distinguido como Doctor Honoris Causa por la Universidad de Murcia?

-Restpuesta: Creo que los honores son una forma de atraer la atención del público sobre un área (en este caso la informática) y unas ideas importantes (en este caso la computación personal e Internet).
Quienes recibimos un premio siempre hemos sido parte de un equipo, especialmente en mi área, y por tanto somos “símbolos” de un esfuerzo de varias personas.
Estoy contento de aceptar este premio como parte de un grupo de investigación de 10 miembros y de una comunidad de más de un centenar de personas que concibieron las ideas e invenciones que han hecho realidad la computación personal.

Nuevos lenguajes de programación

-P: Sus principales contribuciones han sido en el campo de la programación y de la computación personal. En los años sesenta creó el lenguaje Smalltalk por lo que es considerado el padre de la programación orientada a objetos, que es la forma de programar más extendida en la actualidad.

-R: Lo que yo quería decir cuando inventé el término “orientación a objetos” era algo diferente a la forma general en la que el término se usa actualmente. Lo que sucedió en el Xerox Palo Alto Research Center (PARC) fue un éxito y en cierto modo una sorpresa, así que el término mismo llegó a tener algo de magia y hubo algunos malentendidos sobre lo que la Programación Orientada a Objetos (OOP) realmente significaba. En los ochenta aparecieron muchos lenguajes que se autoproclamaban como “orientados a objetos”, aunque no lo eran, tales como C++, ¡Incluso apareció un Cobol orientado a objetos!

Por otra parte, la gente tendió a seguir con los paradigmas de programación que ya conocían (por ejemplo la utilización de estructuras de datos y procedimientos). El uso más trivial de la OOP consistió en extender el paradigma basado en estructuras de datos, y todavía hoy se usa bastante este tipo de extensión, que yo veía como un estilo de programación débil, frágil y no escalable.

La idea de OOP que tuve en 1966 era modelar un número ilimitado de ordenadores completos en una red de intercambio de mensajes (lo que provenía en parte de mi formación en biología y matemáticas, y en parte a que la comunidad ARPA estaba comenzando a abordar el diseño de una enorme red pervasiva de ordenadores, lo que llegó a ser Internet).

Esta forma de ver las cosas es un enfoque de simulación del comportamiento, en el cual estos deben tener tan alto nivel como sea posible, y no se parece en nada a la programación basada en estructuras de datos.

No es que sea la “forma más apropiada de desarrollar software”, pero era muy evidente que sería más expresiva y potente que las viejas formas de hacer las cosas, y que encajaba muy bien con las ideas de interacción gráfica que nosotros comenzábamos a inventar a finales de los sesenta. Y que también encajaba con la forma en la que los niños y la ciencia interpretan el mundo que les rodea.

Alan Kay, en un momento de su discurso en la ceremonia.-P: ¿Cómo evolucionarán los lenguajes de programación?

-R: Una buena idea sería intentar aplicar de verdad la programación orientada a objetos, y entonces pensar en lo que significaría tener objetos muy potentes, con mucha funcionalidad (que podrían ser análogos a las células madre de los seres vivos, que se diferencian en varios cientos de tipos de células activas mediante parametrización). Esto es mucho más claro y potente que la forma en la que se programa actualmente,  por ejemplo, en C++ o Java, con miles de clases muy “débiles”, o sea, con poca funcionalidad.

-P: ¿Qué cambios son necesarios en el desarrollo de software?

-R: En los setenta, los programadores de Smalltalk en PARC usamos un sistema que estaba compuesto de objetos reales, y su entorno de desarrollo estaba escrito en el propio lenguaje y siempre activo. Esto significaba que cualquier cambio podría hacerse en menos de un segundo y que no había sistemas construidos de la noche a la mañana a partir de código fuente y entonces depurados para ver si todo era correcto. Pero aunque en PARC obtuvimos un gran éxito, la mayoría del desarrollo de software actual todavía usa formas que imitan a los archivos de tarjetas perforadas, edición externa, compilación y enlazado, y una depuración muy pobre, tal y como se hacía a principios de los sesenta.

Creo que actualmente debería existir algo mejor que Smalltalk, pero para esto tendríamos que avanzar grandes pasos con respecto a la práctica actual.

-P: ¿Cuál es su opinión sobre Java?

-R: En los comienzos ya sufrimos por “reinventar la rueda” (esto es, por no aprender de la buenas cosas del pasado e intentar mejorarlas), Pero en la actualidad la mayoría de la gente está haciendo algo mucho peor: están “reinventando la rueda pinchada”, y no se dan cuenta que está desinflada y no funciona como una rueda.

Una cuestión a determinar para cualquier sistema es cuál es la relación entre complejidad y el beneficio obtenido. Es decir, si está realmente justificada la complejidad del sistema por la potencia proporcionada. La mayoría (pero no todos) de los lenguajes inventados a partir de los ochenta son realmente terribles a este respecto, y Java es uno de ellos.

-P: ¿Y su opinión sobre el lenguaje Ruby?

-R: Ruby tiene un diseño más limpio que Java y ofrece mejores resultados en un buen número de aspectos. Ruby incorpora algunas ideas de Smalltalk y tiene un meta-sistema, aunque no completo. Esto último es un error y provoca que la realización de algunas tareas importantes sea innecesariamente difícil o prácticamente imposible.

Informática para todos

-P: ¿Cuáles han sido las principales invenciones para conseguir que la computación personal sea accesible a todo el mundo?

-R: Muchas tecnologías importantes están basadas en un gran número de invenciones. Y bastantes de ellas (por ejemplo los aviones a reacción)  no están disponibles para el público en general ya que requieren un montón de entrenamiento especial.

Esto es lo que pasaba con los ordenadores en los 60, así que no es una exageración afirmar que la interfaz gráfica de usuario fue la invención más importante en computación personal, ya que ha permitido que más de 2.000 millones de personas puedan usar los ordenadores.

Los gráficos, y la idea de crear una interfaz sobre pantallas gráficas, se remonta a los años 50, y hubo varios ejemplos realmente buenos a finales de los 60. La primera ventana apareció en Sketchpad, ideado por Douglas Engelbart, tenía una forma de ventana dividida en áreas (“panes”), y las múltiples ventanas fueron ideadas por Ivan Sutherland y por Ed Cheadle y yo en un proyecto de ordenador personal que realizamos a finales de los sesenta

Pero la clave para la interfaz que todo el mundo usa actualmente surgió en Xerox PARC cuando yo estaba intentando idear una GUI que pudiese ser fácilmente aprendida y usada por los niños. Esto supuso una combinación de ideas del pasado, de varios principios sobre el aprendizaje y la acción de Jerome Bruner. Y de unas pocas ideas mías. El proceso requirió una considerable iteración y más ideas, las cuales fueron inventadas por Dan Ingalls, que formaba parte de nuestro grupo de investigación. Gran parte de todo esto se hizo realidad después de cinco años y de experimentar con muchos usuarios  entre 1975 y 1977. En 1979 Steve Jobs visitó el PARC, vio muchas cosas, incluyendo nuestra GUI y decidió que estas ideas deberían ser incorporadas en el LISA (el predecesor de los Mac).

Inventando el ordenador personal

 -P: Es considerado un visionario. ¿Cómo pudo pensar en ordenadores portátiles hace 40 años?

-R: Realmente fue bastante fácil, siempre que uno no se distrajese por las ideas establecidas en los años sesenta, sobre mainframes, tarjetas perforadas, etc.

En 1965 Gordon Moore había observado uno de los procesos más simples del silicio (MOS), y considerando el pasado más reciente, la física, y lo que sería posible con la ingeniería, estableció que “todo lo bueno” podría cambiar por un factor de 2 cada dos años (finalmente fue cada 18 meses aproximadamente). Si uno aceptaba este argumento, entonces tenía una hoja de ruta para los siguientes 30 años, hasta 1995.

A finales de los sesenta, yo estaba trabajando en el desarrollo de uno de los primeros ordenadores personales (una idea radical entonces), cuando en 1968 conocí el trabajo que Seymour Papert estaba haciendo para ayudar a los niños a aprender matemáticas aprovechando algunas de las propiedades especiales y únicas de los ordenadores. Me emocioné mucho con esto y enseguida me percaté de que un ordenador personal de sobremesa no encajaba con la naturaleza activa de los niños, lo que me llevó a pensar en cuándo sería posible colocar los transistores y el software de un ordenador personal en un ordenador del tamaño de un cuaderno. Ya comenzaban a aparecer pantallas planas de 3 x 3 cm., y yo había visto una ese año.

Estos ordenadores portátiles tendrían un lápiz y un teclado (utilicé muchas ideas de la comunidad ARPA, incluyendo ideas de Engelbart, y de la corporación RAND).
A partir de la Ley de Moore pude estimar que el primer ordenador portátil podría estar listo en 10 años, es decir a finales de los setenta, lo cual estaba bien porque no teníamos una idea clara sobre el tipo de software y la interfaz de usuario que tales maquinas necesitarían.

Las otras propiedades fueron muy fáciles. La comunidad ARPA había estado trabajando en la primera versión de Internet y el plan era que estuviese disponible tanto a través de cables como de radio inalámbrica. Todo esto encajaba bien en la naturaleza móvil de los ordenadores portátiles.

En el vuelo de regreso de la visita a Papert, hice este dibujo que muestra dos niños usando estas máquinas.

Y luego, al regresar a la universidad, hice este modelo de cartón para ver lo que se sentiría. Lo rellené con bolas de plomo para ver cuánto podría pesar sin ser un problema (el peso ideal estaba sobre 1 Kg y el peso máximo unos 2 Kg).

Calculé cuantos pixels serían necesarios para conseguir un texto de alta calidad (unos 1000×1000 en unos 100 por pulgada).

Más tarde, en Xerox, escribí un artículo sobre esta idea, y llamé Dynabook a este ordenador. Este artículo aportaba más detalles sobre las características, incluyendo la idea de hacer la pantalla sensible al contacto de un dedo y visualizar el teclado cuando fuese necesario, y algunas estimaciones del precio (costaría lo mismo que una televisión en el momento en que apareciese, lo que estimé en unos 500 dólares).

En Xerox, era todavía demasiado pronto para construir un Dynabook, pero el ordenador PARC Alto (precursor del Mac) fue originalmente llamado “The Interim Dynabook”. Asi que el Mac procede de un intento exitoso de construir una versión de sobremesa del Dynabook.

Esperando la revolución de los ordenadores

-P: ¿Por qué afirma que “la verdadera revolución de los ordenadores no ha sucedido todavía”?

-R: La mayoría de las revoluciones, al igual que las civilizaciones, no son destinos, sino una “manera de viajar”. La civilización es en parte “una cultura de personas que están intentando llegar a ser más civilizados”.  Una revolución de ordenadores personales es una cultura de personas que están intentando descubrir lo que son realmente estos instrumentos, cuya música son ideas, y lo que nosotros podemos llegar a ser si aprovechamos todo su potencial.

Casi nadie que usa el ordenador en la actualidad está intentando descubrir qué es realmente esta máquina. Por ello, se puede decir que la verdadera revolución de los ordenadores no ha comenzado todavía.

Los ordenadores y la educación de los niños

-P: Siempre ha estado muy interesado por la educación de los niños. ¿Cómo pueden ayudar los ordenadores en el proceso de aprendizaje?

La parte más sencilla es ser una extensión en todo el mundo de lo que los libros y bibliotecas han significado para nosotros en los últimos 500 años. La parte más difícil tiene que ver con lo que tienen de especial y novedoso los ordenadores, y cómo pueden ayudarnos a representar y pensar sobre ideas importantes.

Esto permanecerá oculto hasta que un número suficiente de adultos comience a comprender los ordenadores, algo que podría llevar mucho tiempo. Quizá la necesidad de personas adultas pueda ser satisfecha si se inventa una interfaz de usuario que pueda enseñar nuevas cosas, de modo que los niños puedan aprender directamente las ideas que los adultos no comprenden.

-P: Ha trabajado en Walt Disney. ¿Cómo puede influir la informática en el futuro de la animación y de la industria del cine?

-R: En el primer equipo del que formé parte en la Universidad de Utah, durante mi posgrado en 1966, inventamos los gráficos 3D de tono continuo, que es el tipo de tecnología 3D más usado en la actualidad, así que yo diría que esto tuvo una gran influencia en la animación y en la industria del cine!

Mi esposa fue la guionista original de la película “Tron”. La conocí cuando ella vino a Xerox Parc buscando un asesor técnico para el proyecto. Participé bastante en el esquema original de aquella película, pero me aparté cuando llegó a Disney ya que no me gustaba lo que estaban haciendo con ella.

P: ¿Cómo imagina la sociedad de la información del futuro?

-R: Podría ser como la Sociedad de la televisión de hoy día, incluso mucho peor. O podría ser tan buena que sólo pudiese ser comparada con los cambios provocados por la aparición de la imprenta en la gran transición desde la Edad Media a la Era moderna.
La primera ruta es fácil, y es deseada tanto por los intereses comerciales como por la mayoría de las personas. La segunda es más difícil y los sistemas educativos del mundo necesitarán cambiar drásticamente para alcanzar el objetivo.

 

Música e informática

-P: Le encanta la música. ¿Es tan buen músico como científico en informática?

-R: Siempre he sentido atracción por la música, y soy un “músico medio” en casi todos los instrumentos y composición, tanto del jazz como de la música clásica. Toco la guitarra de jazz y teclados clásicos, principalmente el órgano tubular barroco.
Pero no creo que mis ideas en informática tampoco hayan sido trascendentales para la humanidad. Para idear cómo debería ser la interfaz gráfica me ayudó mucho mi formación no sólo en matemáticas y biología, sino también mis conocimientos de teatro y música, la naturaleza inmadura de la disciplina en los años sesenta, y la presencia de unos pocos genios de verdad, como Ivan Sutherland y John McCarthy.

Perfiles

“Los honores son una forma de atraer la atención del público sobre un área  y unas ideas importantes”.

“Ya sufrimos por reinventar la rueda, pero en la actualidad se haciendo algo peor: están reinventando la rueda pinchada”.

“La interfaz gráfica de usuario ha sido la invención más importante en computación personal, ya que ha permitido que más de 2.000 millones de personas usen  los ordenadores”.

“La mayoría de las revoluciones, al igual que las civilizaciones, no son destinos sino una manera de viajar”.

“El ordenador es algo único, tanto en lo que se puede hacer con él, como en la variedad de ideas sobre las que se puede pensar”.