[Debian-br-gud-rs] Java e Ruby, por Alan Kay
Paulo Francisco Slomp
slomp em ufrgs.br
Quarta Dezembro 26 10:29:54 UTC 2012
Alan Kay fala sobre Java, Ruby, as crianças e os computadores
-------------
Alan Kay, informático, nuevo doctor Honoris Causa de la Universidad de
Murcia
Fonte:
http://redi.um.es/campusdigital/entrevistas/4441%E2%80%90alan-kay-informatico-nuevo-doctor-honoris-causa-de-la-universidad-de-murcia%E2%80%90
19 de Febrero de 2010
Alan Kay, doctor Honoris Causa de la Universidad de Murcia
“Lo más novedoso de los ordenadores es que pueden ayudarnos a
representar y pensar sobre ideas importantes”
Traducción del inglés: Jesús Joaquín García Molina
“Los ordenadores son como instrumentos musicales cuya música son las ideas”
Siempre ha sabido que “la mejor manera de predecir el futuro es
inventarlo”. Por eso, Alan Kay no se detuvo en las incipientes
posibilidades de aquellos rudimentarios ordenadores que comenzó a
manejar en los años 60.
Aquellos armatostes escondían todo un universo tras ellos, y Alan Kay
supo imaginarlo. Un hecho tan nimio y familiar como utilizar el ratón
del ordenador, de acceder a toda la información a través de iconos que
abren ventanas, o de llevar bajo el brazo un ordenador para utilizarlo
en cualquier lugar era impensable hace décadas. Y Alan Kay tuvo mucho
que ver en estos inventos. Él fue el primero en imaginarlos y en poner
las condiciones para que algún día llegaran a ser realidad.
El pasado 28 de enero, día de Santo Tomás d Aquino, Alan Kay fue
investido Doctor Honoris Causa por la Universidad de Murcia.
Universidades asiáticas, europeas y americanas nos precedieron. Pero el
famoso informático, que hace unos años recibió el premio Turing,
considerado el Nobel de la Informática, sabe que los galardones son,
ante todo, un medio de llamar la atención sobre el área de la
informática, en la que trabaja y por la que se apasiona desde hace casi
medio siglo.
Apasionado de la música, -un arte que compara constantemente con la
informática- Alan Kay sabe que lo más importante de los ordenadores es
que “pueden ayudarnos a representar y pensar sobre ideas importantes”,
por eso, este informático dedica sus principales esfuerzos desde hace
casi cuatro décadas a intentar hallar nuevas formas de aprendizaje para
los niños a través de los ordenadores.
La Facultad de Informática de la Universidad de Murcia también ha
querido reconocer con esta distinción la labor de los pioneros de la
programación que en la década de los sesenta y setenta sentaron las
bases de una nueva disciplina científica que ha jugado un papel clave en
la emergencia de la Sociedad de la Información: la programación de
ordenadores. Alan Kay es considerado el padre de la forma de programar
más extendida en la actualidad: la programación orientada a objetos. A
continuación, Campus Digital ofrece una extensa entrevista con Alan Kay.
Jesús Joaquín García Molina, Padrino del nuevo doctor Honoris Causa,
ejerce de inmejorable traductor de sus declaraciones.
-Pregunta: Por sus contribuciones a la informática personal y por la
invención de la programación orientada a objetos, ha recibido el premio
Turing, considerado el Nobel de Informática, y otros importantes premios
y reconocimientos por todo el mundo. ¿Qué significa para usted ser
distinguido como Doctor Honoris Causa por la Universidad de Murcia?
-Restpuesta: Creo que los honores son una forma de atraer la atención
del público sobre un área (en este caso la informática) y unas ideas
importantes (en este caso la computación personal e Internet).
Quienes recibimos un premio siempre hemos sido parte de un equipo,
especialmente en mi área, y por tanto somos “símbolos” de un esfuerzo de
varias personas.
Estoy contento de aceptar este premio como parte de un grupo de
investigación de 10 miembros y de una comunidad de más de un centenar de
personas que concibieron las ideas e invenciones que han hecho realidad
la computación personal.
Nuevos lenguajes de programación
-P: Sus principales contribuciones han sido en el campo de la
programación y de la computación personal. En los años sesenta creó el
lenguaje Smalltalk por lo que es considerado el padre de la programación
orientada a objetos, que es la forma de programar más extendida en la
actualidad.
-R: Lo que yo quería decir cuando inventé el término “orientación a
objetos” era algo diferente a la forma general en la que el término se
usa actualmente. Lo que sucedió en el Xerox Palo Alto Research Center
(PARC) fue un éxito y en cierto modo una sorpresa, así que el término
mismo llegó a tener algo de magia y hubo algunos malentendidos sobre lo
que la Programación Orientada a Objetos (OOP) realmente significaba. En
los ochenta aparecieron muchos lenguajes que se autoproclamaban como
“orientados a objetos”, aunque no lo eran, tales como C++, ¡Incluso
apareció un Cobol orientado a objetos!
Por otra parte, la gente tendió a seguir con los paradigmas de
programación que ya conocían (por ejemplo la utilización de estructuras
de datos y procedimientos). El uso más trivial de la OOP consistió en
extender el paradigma basado en estructuras de datos, y todavía hoy se
usa bastante este tipo de extensión, que yo veía como un estilo de
programación débil, frágil y no escalable.
La idea de OOP que tuve en 1966 era modelar un número ilimitado de
ordenadores completos en una red de intercambio de mensajes (lo que
provenía en parte de mi formación en biología y matemáticas, y en parte
a que la comunidad ARPA estaba comenzando a abordar el diseño de una
enorme red pervasiva de ordenadores, lo que llegó a ser Internet).
Esta forma de ver las cosas es un enfoque de simulación del
comportamiento, en el cual estos deben tener tan alto nivel como sea
posible, y no se parece en nada a la programación basada en estructuras
de datos.
No es que sea la “forma más apropiada de desarrollar software”, pero era
muy evidente que sería más expresiva y potente que las viejas formas de
hacer las cosas, y que encajaba muy bien con las ideas de interacción
gráfica que nosotros comenzábamos a inventar a finales de los sesenta. Y
que también encajaba con la forma en la que los niños y la ciencia
interpretan el mundo que les rodea.
-P: ¿Cómo evolucionarán los lenguajes de programación?
-R: Una buena idea sería intentar aplicar de verdad la programación
orientada a objetos, y entonces pensar en lo que significaría tener
objetos muy potentes, con mucha funcionalidad (que podrían ser análogos
a las células madre de los seres vivos, que se diferencian en varios
cientos de tipos de células activas mediante parametrización). Esto es
mucho más claro y potente que la forma en la que se programa
actualmente, por ejemplo, en C++ o Java, con miles de clases muy
“débiles”, o sea, con poca funcionalidad.
-P: ¿Qué cambios son necesarios en el desarrollo de software?
-R: En los setenta, los programadores de Smalltalk en PARC usamos un
sistema que estaba compuesto de objetos reales, y su entorno de
desarrollo estaba escrito en el propio lenguaje y siempre activo. Esto
significaba que cualquier cambio podría hacerse en menos de un segundo y
que no había sistemas construidos de la noche a la mañana a partir de
código fuente y entonces depurados para ver si todo era correcto. Pero
aunque en PARC obtuvimos un gran éxito, la mayoría del desarrollo de
software actual todavía usa formas que imitan a los archivos de tarjetas
perforadas, edición externa, compilación y enlazado, y una depuración
muy pobre, tal y como se hacía a principios de los sesenta.
Creo que actualmente debería existir algo mejor que Smalltalk, pero para
esto tendríamos que avanzar grandes pasos con respecto a la práctica actual.
-P: ¿Cuál es su opinión sobre Java?
-R: En los comienzos ya sufrimos por “reinventar la rueda” (esto es, por
no aprender de la buenas cosas del pasado e intentar mejorarlas), Pero
en la actualidad la mayoría de la gente está haciendo algo mucho peor:
están “reinventando la rueda pinchada”, y no se dan cuenta que está
desinflada y no funciona como una rueda.
Una cuestión a determinar para cualquier sistema es cuál es la relación
entre complejidad y el beneficio obtenido. Es decir, si está realmente
justificada la complejidad del sistema por la potencia proporcionada. La
mayoría (pero no todos) de los lenguajes inventados a partir de los
ochenta son realmente terribles a este respecto, y Java es uno de ellos.
-P: ¿Y su opinión sobre el lenguaje Ruby?
-R: Ruby tiene un diseño más limpio que Java y ofrece mejores resultados
en un buen número de aspectos. Ruby incorpora algunas ideas de Smalltalk
y tiene un meta-sistema, aunque no completo. Esto último es un error y
provoca que la realización de algunas tareas importantes sea
innecesariamente difícil o prácticamente imposible.
Informática para todos
-P: ¿Cuáles han sido las principales invenciones para conseguir que la
computación personal sea accesible a todo el mundo?
-R: Muchas tecnologías importantes están basadas en un gran número de
invenciones. Y bastantes de ellas (por ejemplo los aviones a reacción)
no están disponibles para el público en general ya que requieren un
montón de entrenamiento especial.
Esto es lo que pasaba con los ordenadores en los 60, así que no es una
exageración afirmar que la interfaz gráfica de usuario fue la invención
más importante en computación personal, ya que ha permitido que más de
2.000 millones de personas puedan usar los ordenadores.
Los gráficos, y la idea de crear una interfaz sobre pantallas gráficas,
se remonta a los años 50, y hubo varios ejemplos realmente buenos a
finales de los 60. La primera ventana apareció en Sketchpad, ideado por
Douglas Engelbart, tenía una forma de ventana dividida en áreas
(“panes”), y las múltiples ventanas fueron ideadas por Ivan Sutherland y
por Ed Cheadle y yo en un proyecto de ordenador personal que realizamos
a finales de los sesenta
Pero la clave para la interfaz que todo el mundo usa actualmente surgió
en Xerox PARC cuando yo estaba intentando idear una GUI que pudiese ser
fácilmente aprendida y usada por los niños. Esto supuso una combinación
de ideas del pasado, de varios principios sobre el aprendizaje y la
acción de Jerome Bruner. Y de unas pocas ideas mías. El proceso requirió
una considerable iteración y más ideas, las cuales fueron inventadas por
Dan Ingalls, que formaba parte de nuestro grupo de investigación. Gran
parte de todo esto se hizo realidad después de cinco años y de
experimentar con muchos usuarios entre 1975 y 1977. En 1979 Steve Jobs
visitó el PARC, vio muchas cosas, incluyendo nuestra GUI y decidió que
estas ideas deberían ser incorporadas en el LISA (el predecesor de los Mac).
-P: Es considerado un visionario. ¿Cómo pudo pensar en ordenadores
portátiles hace 40 años?
-R: Realmente fue bastante fácil, siempre que uno no se distrajese por
las ideas establecidas en los años sesenta, sobre mainframes, tarjetas
perforadas, etc.
En 1965 Gordon Moore había observado uno de los procesos más simples del
silicio (MOS), y considerando el pasado más reciente, la física, y lo
que sería posible con la ingeniería, estableció que “todo lo bueno”
podría cambiar por un factor de 2 cada dos años (finalmente fue cada 18
meses aproximadamente). Si uno aceptaba este argumento, entonces tenía
una hoja de ruta para los siguientes 30 años, hasta 1995.
A finales de los sesenta, yo estaba trabajando en el desarrollo de uno
de los primeros ordenadores personales (una idea radical entonces),
cuando en 1968 conocí el trabajo que Seymour Papert estaba haciendo para
ayudar a los niños a aprender matemáticas aprovechando algunas de las
propiedades especiales y únicas de los ordenadores. Me emocioné mucho
con esto y enseguida me percaté de que un ordenador personal de
sobremesa no encajaba con la naturaleza activa de los niños, lo que me
llevó a pensar en cuándo sería posible colocar los transistores y el
software de un ordenador personal en un ordenador del tamaño de un
cuaderno. Ya comenzaban a aparecer pantallas planas de 3 x 3 cm., y yo
había visto una ese año.
Estos ordenadores portátiles tendrían un lápiz y un teclado (utilicé
muchas ideas de la comunidad ARPA, incluyendo ideas de Engelbart, y de
la corporación RAND).
A partir de la Ley de Moore pude estimar que el primer ordenador
portátil podría estar listo en 10 años, es decir a finales de los
setenta, lo cual estaba bien porque no teníamos una idea clara sobre el
tipo de software y la interfaz de usuario que tales maquinas necesitarían.
Las otras propiedades fueron muy fáciles. La comunidad ARPA había estado
trabajando en la primera versión de Internet y el plan era que estuviese
disponible tanto a través de cables como de radio inalámbrica. Todo esto
encajaba bien en la naturaleza móvil de los ordenadores portátiles.
En el vuelo de regreso de la visita a Papert, hice este dibujo que
muestra dos niños usando estas máquinas.
Y luego, al regresar a la universidad, hice este modelo de cartón para
ver lo que se sentiría. Lo rellené con bolas de plomo para ver cuánto
podría pesar sin ser un problema (el peso ideal estaba sobre 1 Kg y el
peso máximo unos 2 Kg).
Calculé cuantos pixels serían necesarios para conseguir un texto de alta
calidad (unos 1000x1000 en unos 100 por pulgada).
Más tarde, en Xerox, escribí un artículo sobre esta idea, y llamé
Dynabook a este ordenador. Este artículo aportaba más detalles sobre las
características, incluyendo la idea de hacer la pantalla sensible al
contacto de un dedo y visualizar el teclado cuando fuese necesario, y
algunas estimaciones del precio (costaría lo mismo que una televisión en
el momento en que apareciese, lo que estimé en unos 500 dólares).
En Xerox, era todavía demasiado pronto para construir un Dynabook, pero
el ordenador PARC Alto (precursor del Mac) fue originalmente llamado
“The Interim Dynabook”. Asi que el Mac procede de un intento exitoso de
construir una versión de sobremesa del Dynabook.
-P: ¿Por qué afirma que “la verdadera revolución de los ordenadores no
ha sucedido todavía”?
-R: La mayoría de las revoluciones, al igual que las civilizaciones, no
son destinos, sino una “manera de viajar”. La civilización es en parte
“una cultura de personas que están intentando llegar a ser más
civilizados”. Una revolución de ordenadores personales es una cultura
de personas que están intentando descubrir lo que son realmente estos
instrumentos, cuya música son ideas, y lo que nosotros podemos llegar a
ser si aprovechamos todo su potencial.
Casi nadie que usa el ordenador en la actualidad está intentando
descubrir qué es realmente esta máquina. Por ello, se puede decir que la
verdadera revolución de los ordenadores no ha comenzado todavía.
-P: Siempre ha estado muy interesado por la educación de los niños.
¿Cómo pueden ayudar los ordenadores en el proceso de aprendizaje?
La parte más sencilla es ser una extensión en todo el mundo de lo que
los libros y bibliotecas han significado para nosotros en los últimos
500 años. La parte más difícil tiene que ver con lo que tienen de
especial y novedoso los ordenadores, y cómo pueden ayudarnos a
representar y pensar sobre ideas importantes.
Esto permanecerá oculto hasta que un número suficiente de adultos
comience a comprender los ordenadores, algo que podría llevar mucho
tiempo. Quizá la necesidad de personas adultas pueda ser satisfecha si
se inventa una interfaz de usuario que pueda enseñar nuevas cosas, de
modo que los niños puedan aprender directamente las ideas que los
adultos no comprenden.
-P: Ha trabajado en Walt Disney. ¿Cómo puede influir la informática en
el futuro de la animación y de la industria del cine?
-R: En el primer equipo del que formé parte en la Universidad de Utah,
durante mi posgrado en 1966, inventamos los gráficos 3D de tono
continuo, que es el tipo de tecnología 3D más usado en la actualidad,
así que yo diría que esto tuvo una gran influencia en la animación y en
la industria del cine!
Mi esposa fue la guionista original de la película “Tron”. La conocí
cuando ella vino a Xerox Parc buscando un asesor técnico para el
proyecto. Participé bastante en el esquema original de aquella película,
pero me aparté cuando llegó a Disney ya que no me gustaba lo que estaban
haciendo con ella.
P: ¿Cómo imagina la sociedad de la información del futuro?
-R: Podría ser como la Sociedad de la televisión de hoy día, incluso
mucho peor. O podría ser tan buena que sólo pudiese ser comparada con
los cambios provocados por la aparición de la imprenta en la gran
transición desde la Edad Media a la Era moderna.
La primera ruta es fácil, y es deseada tanto por los intereses
comerciales como por la mayoría de las personas. La segunda es más
difícil y los sistemas educativos del mundo necesitarán cambiar
drásticamente para alcanzar el objetivo.
Música e informática
-P: Le encanta la música. ¿Es tan buen músico como científico en
informática?
-R: Siempre he sentido atracción por la música, y soy un “músico medio”
en casi todos los instrumentos y composición, tanto del jazz como de la
música clásica. Toco la guitarra de jazz y teclados clásicos,
principalmente el órgano tubular barroco.
Pero no creo que mis ideas en informática tampoco hayan sido
trascendentales para la humanidad. Para idear cómo debería ser la
interfaz gráfica me ayudó mucho mi formación no sólo en matemáticas y
biología, sino también mis conocimientos de teatro y música, la
naturaleza inmadura de la disciplina en los años sesenta, y la presencia
de unos pocos genios de verdad, como Ivan Sutherland y John McCarthy.
Perfiles
“Los honores son una forma de atraer la atención del público sobre un
área y unas ideas importantes”.
“Ya sufrimos por reinventar la rueda, pero en la actualidad se haciendo
algo peor: están reinventando la rueda pinchada”.
“La interfaz gráfica de usuario ha sido la invención más importante en
computación personal, ya que ha permitido que más de 2.000 millones de
personas usen los ordenadores”.
“La mayoría de las revoluciones, al igual que las civilizaciones, no son
destinos sino una manera de viajar”.
“El ordenador es algo único, tanto en lo que se puede hacer con él, como
en la variedad de ideas sobre las que se puede pensar”.
Última actualización el Jueves, 24 de Junio de 2010.
--
_______________________________
Paulo Francisco Slomp
http://www.ufrgs.br/psicoeduc
Acionado com Software Livre
http://www.ufrgs.br/soft-livre-edu
More information about the Debian-br-gud-rs
mailing list