miércoles, 25 de febrero de 2009

¿Elecciones?

¡Saludos! Después del correspondiente parón de Carnaval, y aprovechando la proximidad del aniversario del 23F así como de las elecciones a los Parlamentos de Galicia y Euskadi, os muestro un vídeo de Youtube extraído a su vez de la serie documental de Victoria Prego "La Transición" en la que algunos de los partidos que se presentaban a las elecciones generales del 15 de junio de 1977, las primeras celebradas en España tras la muerte de Franco, exponen sus programas electorales.

Ya aviso, si no te interesa la política ni/o la historia de España, seguramente te parecerá un peñazo, pero si aún así decides verlo presta al menos atención a dos detalles: las bandas sonoras (el sintetizador del PCE no tiene precio, aunque la españolada de Fraga y su Alianza Popular no se queda atrás...) y el "¡Uy, qué miedo, que vienen los rojos!" que suelta un demacrado y ya ex-presidente Carlos Arias Navarro en el anuncio de AP una vez que Fraga ha terminado de leer sus papeles con una corbataza modelo "Viva España". De los contenidos de los programas (lo mejor la llamada a la reconciliación de Santiago Carrillo, el resto tiene poca chicha...) prefiero no polemizar, sacad vuestras propias conclusiones. Ahí os queda.

En otro orden de cosas, el autor de El Cedazo ha publicado su siguiente entrega de la serie "Historia de un viejo informático", de la que ya os he hablado en un post anterior. Esta vez nos habla acerca de los grandes mainframes de IBM que usaban entonces (no tan diferentes en sus fundamentos a los de ahora).

jueves, 19 de febrero de 2009

Estupideces varias

Esta mañana, nada más entrar en esa vorágine informativa que es menéame me he dado de bruces con dos enlaces cuanto menos curiosos.

Primero: Arquitectura nazi. Este todavía tiene un pase, y a modo de curiosidad resulta interesante ver las mastodónticas construcciones que el III Reich tenía pensado construir (algunas las empezó y quedan restos o partes en pie) como muestra de su poder. De todas ellas me gustaría destacar la última, que podemos juntar con la batalla aérea de hace unos cuantos posts, formando una colección de imágenes comunistas-nazis sin desperdicio. Aquella era un montaje (por si la presencia de un platillo nazi no despejaba toda duda de ello), pero ésta es verdadera: resulta que en la Exposición Internacional de París de 1937 se construyeron los pabellones nazi (izquierda) y soviético (derecha) uno enfrente del otro... Ahí va la foto:


Segundo: Cómo hacer que tu gato acepte las licencias de software. De ésta prefiero no hablar. Entrad en el enlace y sacad vuestras propias conclusiones...

La canción más molesta de la historia

Vía Diego, uno de los inspiradores de ese antro-infernal que es Lobotomizados (os recomiendo sus dos últimos posts, básicamente alcohol y rock and roll) llego a este post del blog de Wired acerca de una canción creada con la intención de ser la más molesta del mundo... Como diría el gran Nelson Muntz: Y ahora a disfrutar la canción, ¡disfrutadla!

Una encuesta online dirigida en los años 90 por Vitaly Komar, Alex Melamid y David Soldier buscaba crear la canción más molesta de la historia. Después de recoger información sobre los estilos y temas que menos gustaban a la gente, hicieron lo impensable: lo combinaron todo en una única monstruosidad, especialmente creada para sonar desagradable al máximo porcentaje posible de oyentes. La canción no es nueva, pero ha reaparecido en Dial "M" for Musicology (N.T.: Blog en el que hablaron del tema en su momento).

Sorprendentemente, esta "música indeseada" contiene pocas disonancias... hacerlo así habría sido muy fácil. Parece incluso que sus autores buscaron ensamblar todos sus elementos de forma que quedase algo escuchable.

La lista de elementos indeseables de Komar & Melamid y David Soldier incluía música veraniega, gaitas, órgano, un coro de niños y el concepto de niños en general (¿de verdad?), ruido de un Wal-Mart, vaqueros, jingoísmo, George Stephanopoulos, Coca Cola, ritmos electrónicos de bossanova, ferocidad de banjo, glissandos de arpa, tubas y mucho, mucho más. Es realmente fascinante, merece la pena ya sólo por la parte de la ópera-rap.

Stream:

Si no la habéis escuchado, sois unos cobardes. Si lo habéis hecho... en fin.

miércoles, 18 de febrero de 2009

Historia de un viejo informático

Hace algunos días me topé con una entrada en El Cedazo (blog hermano de El Tamiz, creado como lugar de colaboración de los lectores) donde un "viejo informático", tras una pequeña presentación de sí mismo y de su historia, nos explica cómo estaban estructurados los estudios de informática, allá por la España de principios de los 70, cuando no existían las facultades ni escuelas técnicas de Informática y todo se hacía en academias e institutos privados (y no especialmente baratos...). Es el principio de una serie donde su autor nos cuenta las peripecias vividas durante el tiempo que trabajó en el centro de proceso de datos de un gran banco.

Al post sobre la "carrera" de entonces siguió otro sobre el equipamiento que tenían dichos centros (auténticos mastodontes, tanto por la antigüedad como por el tamaño), y ayer apareció la tercera entrega de esta genial protohistoria de la informática en España, acerca de la metodología de trabajo en aquella época.

Ahí os dejo bien ordenaditos los enlaces, ¡disfrutadlos!
  1. Introducción
  2. Los estudios: El Instituto de Informática
  3. El equipamiento informático en la década de los setenta (Portada de menéame)
  4. El Método de trabajo en Proceso de Datos en la década de los setenta (meneadlo)

El autor promete seguir con la serie, así que no le quitéis ojo porque al menos para mí (y para estudiantes de informática y aficionados al tema en general supongo que también) está resultando muy interesante.

BONUS: Ya que estamos con protohistoria de la informática, un enlace a algo que parece incluso anterior al principio de los tiempos (sí, sí, ya sé que la frase no tiene sentido...)

Colores inventados y otras hierbas

Después de tanto tiempo a vueltas con traducciones (tanto del blog como de documentación del proyecto final de carrera) esta vez me limitaré a enlazar a unas cuantas curiosidades científico-técnicas que encontré partiendo de un interesante post que leí en Microsiervos antes de ayer (y su correspondiente "refutación", que me acabo de encontrar).

El post en cuestión habla sobre las peculiaridades del color magenta, un color que, sencillamemente, no existe como tal en la zona visible del espectro electromagnético, sino que es una invención del cerebro humano en respuesta a la detección por parte de los conos de la retina de radiaciones entre el rojo y el violeta (extremos del espectro visible). Para más información se nos remite a un post del también muy interesante blog de gazapos y curiosidades científicas que es Malaciencia acerca de los colores primarios (que por cierto no son exactamente los que nos enseñaban en el colegio). La refutación a la que hago referencia al principio es un artículo de ArsTechnica que básicamente explica cómo se consigue el color magenta como combinación de radiaciones con otras longitudes de onda. Es decir, existir sí existe, pero no es un color de una longitud de onda concreta, sino combinación de varias.

Siguiendo con el recorrido de antes de ayer, después de consultar el post de Malaciencia sobre colores primarios acabé perdido (algo que no es difícil, hay muchos y todos muy interesantes) por el resto de artículos, quedándome con uno en que el autor del blog se congratulaba de haber encontrado un acierto científico en un capítulo de Stargate SG-1 (sí, esa serie en que Richard Dean Anderson demostró que había vida después de MacGyver). Pues al final del mismo hay dos enlaces muy interesantes de otro blog bastante bueno, El Tamiz. En concreto sobre dos series de posts, "Relatividad sin fórmulas" y "Cuántica sin fórmulas" donde se nos intenta explicar de forma más o menos sencilla (que no simple) la Teoría de la Relatividad Especial de Einstein así como los trabajos de Planck y otros en el campo de la Mecánica Cuántica.

Divagación-digresión: Manda carallo narices que Deutsche Telekom comprase en su momento una invención del cerebro humano, pero no de uno de sus científicos, sino de todos nosotros...

sábado, 14 de febrero de 2009

Linux 2000 X: Conclusiones

De las 8 distribuciones analizadas, algunas se adaptan más a determinados tipos de usuarios que otras. Corel, por ejemplo, está pensada principalmente para los novatos en Linux como demuestra su sistema automático de detección de hardware y un proceso de instalación muy sencillo. Como la mayoría de los usuarios no familiarizados proceden de Windows, hace el esfuerzo de proprocionar un gestor de archivos similar a Explorer y configuraciones de vídeo y red integradas en el panel de control del escritorio.

Por otra parte, distribuciones como Debian o Definite están dirigidas a usuarios más experimentados que prefieren fiabilidad y flexibilidad antes de relucientes instaladores y escritorios. Esto es importante a la hora de quedarse con una distribución: si uno no conoce Linux puede preferir algo sencillo para empezar, pero si se tiene cierta experiencia las restricciones de las distribuciones para principiantes pueden ser frustrantes.

Pese a que la mayoría empiezan a incorporar instaladores gráficos (basado en el servidor X VGA16 por temas de compatibilidad), no siempre resulta la mejor elección. Linux se encuentra cada vez más extendido en hardware antiguo, donde puede funcionar como servidor de almacenamiento o impresión, o simplemente como sistema operativo de desarrollo para probar nuevo software. Por todo esto, los instaladores basados en texto son primordiales, ya que ejecutar un instalador gráfico en según que equipos puede ser resultar muy lento o incluso no funcionar.

La mejor solución es, evidentemente, proporcionar ambos instaladores, tal y como sucede en Red Hat, donde en caso de problemas puede utilizarse el programa estándar de instalación. En general, los instaladores gráficos de estas distribuciones no añaden importantes funcionalidades al proceso, pero sí lo hacen más sencillo y cómodo a los novatos.

Otra cuestión a estudiar es el formato de paquetes. Muchas de las distibuciones optaron por el formato RPM de Red Hat, que pese a todo no garantiza la compatibilidad con otros sistemas, como sucede a veces en OpenLinux y SuSE. Siendo cuidadoso, es posible evitar la comprobación de dependencias durante la instalación de los mismos, ya que el intento de solucionarlas puede acarrear más problemas.

En general, las distribuciones derivadas de Red Hat (como Mandrake o Definite) tienen menos problemas con paquetes RPM estándar bajados de la Web. En cambio, encontrar paquetes que funcionen sin problemas en SuSE o Caldera no es tan sencillo. Sus webs proporcionan paquetes hechos a medida y listos para usar, pero muchas veces no son los más actuales. Corel y Debian optaron por los paquetes .deb, aunque puede usarse el programa Alien para convertir los RPM al formato por defecto. Aunque los paquetes RPM abundan más en la Red, la popularidad de Debian hace que los .deb tampoco escaseen.

¿Cuál es la mejor opción para el escritorio? Basta entrar en un grupo de noticias sobre Linux o suscribirse a una lista de correo para ser testigo del encarnizado debate entre KDE y GNOME. Mientras que KDE empezó antes y tiene fama de ser un entorno de escritorio sólido y usable, GNOME le pisa los talones. Como ambos son de libre disponibilidad, basta con probarlos y elegir uno. Y si no agrada ninguno de los dos, o se necesita algo que consuma menos recursos, existen otros gestores más ligeros como FVWM o Blackbox que usan gran parte de las aplicaciones de KDE y GNOME.

Hay que decir que la mayoría de las distribuciones analizadas incorporaban por defecto KDE (ligeramente más fácil de usar en algunos casos, además de que gracias al gestor de ventanas nativo (kwm), los usuarios noveles no tendrán que preocuparse de tener dos configuraciones diferentes a la vez). Aun así, con un buen gestor de ventanas como Enlightenment o IceWM, GNOME proporciona una interfaz "drag-and-drop" igual de amigable y con muchas aplicaciones útiles.

De las pruebas se desprende que Mandrake 7 es la mejor de las 8 distribuciones analizadas. Debian y Definite son quizá las mejores alternativas para usuarios experimentados y fans de Linux, mientras que SuSE, Caldera y Red Hat no deben dejarse a un lado. Pero si lo que se busca es una distribución amigable, potente y de uso general con mucha variedad de software, Mandrake debería ser la primera elección.

(NOTA FINAL: Con este post termina el análisis a las distribuciones del año 2000. Aprovecho para comentar que las opiniones en él vertidas no coiniciden con las mías, principalmente porque nunca he probado ninguna de las distribuciones de las que se habla)

lunes, 9 de febrero de 2009

Linux 2000 IX: SuSE Linux 6.3

Experta compañía distribuidora, SuSE ha estado presente durante años en el mercado europeo hasta convertirse en una de las más populares del continente. Uno de los puntos a destacar es la gran cantidad de software que incluían sus discos, alcanzando las 1.500. Asimismo modificaron su distribución para que pudiese ejecutarse en sistemas con procesadores Alpha, además de invertir en varias áreas clave para el desarrollo de Linux. El instalador de SuSE se basa en YaST, utilidad de instalación de largo recorrido finalmente actualizada de modo texto a interfaz gráfica.

Por desgracia, cuando iniciamos la instalación con YaST2, nos avisó acerca de que nuestra partición de 2 GB era insuficiente para la instalación mínima. Prudentemente SuSE decidió incluir el original y más que probado YaST, que funcionó a la perfección. La instalación se desarrolló de forma más o menos rápida, aunque de forma no muy limpia a causa de los constantes reinicios (al iniciarse YaST para reiniciar los servicios del sistema primero, y una vez terminado otro reinicio para después ejecutar algunos scripts). Pero en general se trataba de una instalación razonablmente limpia, además de contar con una ayuda online cuidada y útil.

YaST es también la principal herramienta de configuración del sistema en SuSE, ofreciendo diferentes opciones administrativas y de instalación, desde añadir nuevos usuarios a configurar módems. Para la mayoría resulta fácil de usar y potente, pero a veces no hace exactamente lo que se le manda y puede causar problemas si se editan a mano ciertos ficheros de configuración. Como muchas otras, SuSE optó en esta versión por KDE, bastante bien configurado de serie, con iconos para el montaje de unidades, fácil acceso a YaST y buen sistema de ayuda.

Otra característica particularmente interesante es la actualización automática de menús (una aplicación instalada a través de YaST añadirá su entrada al menú de KDE). Esto también funciona para los menús de FVWM o IceWM, entre otros. SuSE Linux usa el formate de paquetes RPM, pero muestra ciertos problemas de compatibilidad al instalar muchos de los disponibles en Internet. Afortunadamente, SuSE proporciona un excelente servicio en su web para los nuevos programas de KDE, hechos a medida para la distribución.

Una causa de preocupación fue la inclusión de GIMP 1.1.11, versión todavía en desarrollo. La documentación del programa comentaba que se trataba de una versión inestable "adecuada sólo para desarrolladores", dando la impresión de que SuSE simplemente buscaba un número de versión en concreto. Una mancha dentro de una buena recopilación de programas tanto de escritorio como para servidores. En resumen, SuSE es una buena distribución con algunas características atractivas. Sin embargo, algunas de sus peculiaridades la mantienen rezagada.

Valoración de la distribución
  • Facilidad de uso: 4/5
  • Documentación: 4/5
  • Características: 4/5
  • Software: 4.5/5
  • General: 4/5
  • Comentario: Una distribución decente, con ciertas características curiosas y buena elección de software
Capturas de pantalla
Último análisis de distribuciones. Siguiente y última entrega: Conclusiones.

Linux 2000 VIII: Caldera OpenLinux 2.3

El objetivo principal que Caldera buscaba con su distribución OpenLinux era entrar en el sector comercial a través de un sistema operativo estable tanto para escritorio como para servidores, y que a la vez encajase en un entorno de trabajo empresarial. Podía ser instalado desde Windows o en un disco limpio, siempre a través de un proceso totalmente gráfico. Lizard, el instalador, estaba muy conseguido y presentaba una columna de texto de ayuda de valor incalculable para los novatos, además de referencia útil del progreso de la instalación.

Ratón y gráfica eran correctamente detectados, y la herramienta de particionado resultaba clara y directa. Podía crearse un usuario por defecto, así como ultimar algunos detalles de configuración mientras se instalaban los paquetes. Una buena idea que además suponía un ahorro de tiempo.

Surgían pegas en el primer inicio de sesión por problemas en la asignación de la partición de intercambio o swap. Este problema aparecía como común en la información de soporte de OpenLinux 2.3, y aunque era posible modificar el fichero fstab manualmente y añadir la entrada correspondiente a swap, los novatos encontrarían esto algo lento y engorroso, incluso algunos no serían capaces de hacerlo. El escritorio por defecto de OpenLinux era KDE, que al ejecutarse por primera vez lanzaba el asistente Kandalf para la personalización del escritorio. Se podía elegir un tema y añadir iconos para las unidades de CD y disquete. Todo tenía un toque pulido y profesional, si bien no había alternativa a KDE si no estabas familiarizado con él.

COAS, siglas de Caldera Open Administration System, era una suite de programas diseñada para facilitar la configuración y gestión del sistema. Pese a no ser tan completa como Linuxconf, resultaba menos abrumadora y era más sencillo de manejar. COAS incluía utilidades para la administración de cuentas, configuración de red o instalación de paquetes, entre otras. Las aplicaciones típicas como el GIMP o Netscape eran instaladas por defecto, además se proporcionaban herramientas como Dosemu, WINE o Samba para mejorar la conectividad con sistemas de Microsoft. También prestaba atención a los desarrolladores, que contaban con XEmacs y el compilador egcs.

Pese al problema de la partición swap, OpenLinux era una distribución más que adecuada para los novatos y usuarios intermedios. Existía otro problema, esta vez con los RPM, ya que aunque Caldera los usaba, era necesario añadir opciones extra si se querían instalar paquetes RPM de Red Hat. Quizá muchos de los entonces usuarios veteranos de Linux no se encontrarían cómodos con Caldera, pero sin duda es una distribución pulida que, con una instalación simple y herramientas de configuración poco complicadas, supone un buen sistema de uso general.

Valoración de la distribución
  • Facilidad de uso: 4.5/5
  • Documentación: 4/5
  • Características: 4.5/5
  • Software: 4/5
  • General: 4/5
  • Comentario: Pulida y amigable, OpenLinux es una buena opción de escritorio.
Capturas de pantalla
Siguiente entrega: SuSE Linux 6.3

Linux 2000 VII: Mandrake 7.0

El concepto que hay tras Linux-Mandrake nació originalmente del rechazo de Red Hat a incluir KDE en su distribución. Esto se debió a problemas de licencia, por lo que Mandrakesoft decidió crear una variante de Red Hat con KDE incluido y listo para utilizar, de forma que los nuevos usuarios no tuviesen que buscar y descargar ningún entorno gráfico en Internet. Desde entonces, Mandrake ha ido evolucionando hasta convertirse en una sólida distribución por derecho propio. El nuevo instalador gráfico es una herramienta fantástica y fácil de usar, además de que no nos ha dado ningún problema.

Claramente su diseño ha sido muy estudiado: una columna de luces en un lateral funcionan como barra de progreso a la vez que un cuadro de texto en la parte inferior proporciona sugerencias y ayuda para cada paso. Es posible predeterminar un nivel de seguridad e incluso si se desea que la tecla "Num Lock" se active al arrancar. Por suerte también se crea una cuenta de usuario y se configura automáticamente la conexión de acceso telefónico. Pese al largo proceso de instalación de paquetes y la imposibilidad de configurar el sonido, el instalador de Mandrake es de lo mejor hasta el momento y una alegría para usuarios tanto nuevos como experimentados.

En funcionamiento, la distribución se parece mucho a Red Hat. Sin embargo, añade una mejora en forma de la herramienta de instalación de hardware "Lothar", que detecta automáticamente la mayoría de los dispositivos, si bien su configuración se puede hacer algo liosa. Pese a todo, sin duda es un gran comienzo y con un poco más de desarrollo realmente podrá atraer usuarios no técnicos a Linux. La herramienta de configuración DrakConf servirá de gran ayuda a los novatos y servirá de apoyo en un importante rango de tareas administrativas, mientras que el sistema Supermount de montado automático para dispositivos extraíbles es un gran toque.

En cuanto al escritorio, Mandrake trae por defecto KDE 1.1.2, incluyéndose además GNOME, Window Maker, IceWM y Enlightenment. En el CD vienen también Netscape, el GIMP y WINE para poder ejecutar aplicaciones Windows, además de Emacs, KDevelop y egcs para desarrolladores.

La instalación de KDE en Mandrake es buena, la documentación incluida en el disco es cuidadosa y está bien redactada y el rango de aplicaciones en el CD es variado y actualizado. Teniendo todo esto en cuenta, y añadiendo la brillantez del instalador DrakX, Mandrake puede ser considerada la mejor distribución de propósito general disponible. Gustará a los nuevos usuarios por su fácil proceso de instalación, escritorio KDE listo para usar y completa documentación. Los usuarios experimentados disfrutarán de la variedad de escritorios y herramientas de desarrollo, así como de la flexibilidad general del sistema.

Valoración de la distribución
  • Facilidad de uso: 5/5
  • Documentación: 4/5
  • Características: 4.5/5
  • Software: 5/5
  • General: 5/5
  • Comentario: Fácil de usar, robusto, rápido y con gran cantidad de software. Altamente recomendado.
Capturas de pantalla

Siguiente entrega: Caldera OpenLinux 2.3

Linux 2000 VI: Debian 2.1

A diferencia de las otras distribuciones comerciales de esta recopilación, Debian es desarrollada por una organización sin ánimo de lucro llamada Software in the Public Interest (Software de Interés Público, en español). Voluntarios de todo el mundo ayudan a mantener el sistema, además de que la distribución ha adquirido un respeto considerable entre los usuarios experimentados de la comunidad. El instalador en modo texto está disponible monocromo y en color, de forma que Debian puede ser instalado en sistemas muy antiguos que no cuentan con pantalla a color, lo cual es muy buena idea, y supone un cambio refrescante entre tanto instalador llamativo.

Desde el principio queda claro que los nuevos usuarios pueden encontrarla un poco pesada. La utilidad de particionado cfdisk asume grandes conocimientos, siendo un punto del proceso donde puedes necesitar la ayuda de otros. Por otra parte, se alerta e interroga constantemente acerca de lo que el instalador está haciendo, todo un mundo aparte de la idea de "hazlo todo automáticamente" que se encuentra en distribuciones como Corel.

La instalación lleva su tiempo, y una vez instalado el grupo de paquetes elegido (escritorio, estación de trabajo para desarrollo, etc.) hay que sentarse a configurar y a veces responder algunas preguntas sobre cada paquete. Debian se basa en el formato propio .deb, similar a RPM. Sin embargo, con la gran herramienta de gestión de paquetes "dselect", el añadir o eliminar software se convierte en algo fácil y directo. De todas formas la mejor característica de todas quizá sea el sistema Advanced Packaging Tool o "apt" (Herramienta Avanzada de Paquetes), que permite actualizar todo el sistema con un par de comandos.

Después de experimentar leves incompatibilidads con paquetes RPM en varias distribuciones, es una delicia ver que el control de paquetes y la actualización se convierten en procesos mucho menos dolorosos. En cuanto al software, Debian muestra su edad. Viene con el kernel 2.0.38 (ni siquiera es de la serie 2.2.x) y XFree86 3.3.2. También cuenta con una versión antigua de GNOME junto con varios gestores de ventanas como Enlightenment, Window Maker o FVWM. Tratándose de una distribución claramente técnica, incluye toda una plétora de programas de consola que no necesitan de las X para funcionar, tales como gestores de correo, herramientas de desarrollo o utilidades de red.

Los paquetes del CD de Debian están un poco desfasados por varias razones. En primer lugar, al tratarse de un proyecto de voluntariado los desarrolladores no siempre pueden lanzar una nueva versión, y lo que es más importante, están comprometidos con la estabilidad y buen mantenimiento del sistema (queda demostrado con el excelente proceso de actualización). Tanto la actitud de trabajo como el proceso de desarrollo son similares a los del propio kernel, donde la excelencia técnica prevalece sobre los intereses comerciales. Debian quizá no sea una buena elección para los principiantes en Linux (si piensas probarlo por primera vez, probablemente lo tengas más fácil si empiezas con Mandrake o Caldera). Sin embargo para los usuarios experimentados que necesiten una distribución fiable, de fácil mantenimiento y cuidadosamente trabajada, es la mejor opción.

Valoración de la distribución
  • Facilidad de uso: 2/5
  • Documentación: 4.5/5
  • Características: 4.5/5
  • Software: 3/5
  • General: 4.5/5
  • Comentario: No es adecuada para novatos, pero técnicamente es superior y fácil de mantener.
Capturas de pantalla
Próxima entrega: Linux Mandrake 7.0

Linux 2000 V: Red Hat Linux 6.1

Una de las distribuciones más veteranas de esta recopilación, Red Hat se ganó una reputación gracias a su solidez tanto en entornos de escritorio como en servidores. Además la compañía creó el popular formato de paquetes RPM, ocupando una posición de privilegio en un mercado cada vez más competitivo. Al igual que muchos otros, se mudaron a la instalación gráfica con Anaconda, si bien aún se podía realizar el proceso en modo texto.

Pese a no ser tan vistoso como otros, el instalador gráfico de Red Hat era limpio, rápido y presentaba textos de ayuda bastante útiles en un extremo de la pantalla. Detectaba sin problemas ratón y gráfica, y con la ayuda de Disk Druid el particionado resultaba bastante sencillo. Ofrecía distintas "clases" de instalación, desde una típica estación de trabajo con GNOME o KDE a un servidor, además de una opción de personalización para usuarios más avanzados. El instalador también creaba una cuenta normal de usuario, esencial para un sistema seguro y fiable.

Red Hat respaldó de forma significativa el desarrollo de GNOME, que sigue como entorno de escritorio por defecto para esta distribución. Puesto que el debate GNOME contra KDE tenía para rato, resultaba una buena elección y el número de programas y utilidades proporcionadas conformaban un escritorio rico y muy usable. Los iconos de las unidades de CD y disquete estaban preparados para su uso directo, mientras que el navegador de ayuda de GNOME ofrecía enalces a la guía de principiantes de Red Hat. Asimismo el CD incluía gestores de ventanas alternativos tales como FVWM, Window Maker o AfterStep. También se suministraba un buen surtido de aplicaciones típicas, incluyendo herramientas para desarrollo, servidores (Apache y Samba) e Internet como Netscape, Pine o Lynx.

Para tareas comunes de administración del sistema, Red Hat usaba el programa Linuxconf, potente pero que necesitaba de cierta experiencia y comprensión de algunos conceptos generales de Linux. Kudzu, iniciado al arrancar, comprobaba si había nuevo hardware e intentaba configurarlo. Además, la nueva utilidad RP3 para crear conexiones de acceso telefónico a Internet simplificaba un proceso hasta el momento complicado. Todo esto, junto con otras pequeñas utilidades como printtool o sndconfig, hacían de Red Hat un sistema muy manejable y de configuración rápida.

Sin embargo, pese a que nosotros no experimentamos problema alguno, los informes de otros usuarios acerca de errores o bloqueos del instalador asi como complicaciones con la actualización. En general y pese a todo, Red Hat Linux es una potente y flexible distribución con excelente documentación y una colección de programas de configuración muy útil.

Valoración de la distribución
  • Facilidad de uso: 4/5
  • Documentación: 5/5
  • Características: 4.5/5
  • Software: 4/5
  • General: 4/5
  • Comentario: Robusto, con sólido rango de software pero pequeños problemas de instalación.
Capturas de pantalla
Siguiente entrega: Debian GNU/Linux 2.1

Linux 2000 IV: WinLinux 2000

El principal punto a favor de WinLinux es que podía ser instalado en un disco formateado para Windows sin necesidad de pelearse con el particionado. Basada en Slackware, se erigía como "la forma más fácil de instalar Linux en el mundo Windows". Gracias al sistema de ficheros UMSDOS, WinLinux utilizaba un directorio de Windows para almacenar los ficheros del sistema, si bien como contraprestación resultaba más lento que si se usaba una partición dedicada. Desde Windows 95 se ejecutaba un clásico SETUP.EXE que permitía escoger qué paquetes instalar, para después iniciar la copia al directorio elegido. De momento todo bien.

Una vez finalizado el instalado se lanza una herramienta de configuración... acompañada de un error. Después de descartarlo, aparecía una ventana de configuración en blanco, y si se pulsaban los botoes Atrás y Adelante surgían más errores, quedando Cancelar como única opción. Por desgracia, no se trataba de un problema limitado a nuestro sistema, sino que mucha gente se quejó en Internet de las mismas dificultades a la hora de utilizar los cuadros de diálogo. En la web de WinLinux, la sección de Actualizaciones y Soporte no ofrecía solución alguna. Ante la situación se envió un correo al equipo de soporte, esperando encontrar un remedio, pero no hubo respuesta.

Finalmente encontramos un enlace en la sección de FAQ a una herramienta actualizada de configuración. El motivo de que esto estuviese oculto en lugar de en un lugar destacado de la sección de Actualizaciones y Soporte es un misterio, pero bueno, al menos el resultado mejoró con la nueva utilidad de configuración, si bien solamente detectó el ratón. Ni rastro de las tarjetas de vídeo o sonido. Al inicial Linux, además, aparecieron varios mensajes de error relacionados con ciertos módulos del kernel.

WinLinux incluía el kernel 2.2.13, XFree86 3.3.5 y la librería glibc 2.1, bastante actualizado. El escritorio por defecto era KDE 1.1.2, bastante bien configurado y modificado por los desarrolladores para adaptarse a pantallas más pequeñas. Asimismo también se encontraba disponible FVWM. Entre otros programas, se suministraba GIMP 1.0.4 y Netscape Communicator 4.7, además del compilador egcs. Un conjunto interesante, al que se unían las diferentes herramientas multimedia y de Internet que venían con KDE.

A la hora de usarlo, las base Slackware convertía a WinLinux en un sistema sólido y potente. Además la herramienta de configuración de Slackware (invocada con "setup") era bastante completa, si bien no era mencionada en ningún punto de la reducida y mal redactada documentación. WinLinux estaba claramente dirigido a los novatos, pero toda esa serie de problemas durante la instalación y la falta de archivos de ayuda claros lo desaconsejaban totalmente.

Valoración de la distribución
  • Facilidad de uso: 2/5
  • Documentación: 1/5
  • Características: 3/5
  • Software: 3/5
  • General: 2/5
  • Comentario: Buen concepto venido a menos por los problemas de instalación y la pobre documentación.
Capturas de pantalla
Siguiente entrega: Red Hat 6.1

Linux 2000 III: Definite Linux 7.0

(NOTA: Los autores del artículo original son de procedencia británica, de ahí el énfasis que veréis en que esta distribución fuese desarrollada en su país)

Producido por Definite Software PLC, compañía radicada en el Reino Unido, Definite Linux se basaba en la distribución Red Hat. Buscaba mejorar Red Hat poniéndola a día y añadiendo soporte regional completo para el Reino Unido. El instalador en modo texto, al estilo del de Red Hat 6.0, era rápido y sencillo. Se podía elegir la zona horaria e idioma, así como realizar el particionado necesario con la herramienta Disk Druid. Instalaba los paquetes seleccionados por el usuario y detectaba sin problemas ratón y tarjeta gráfica. Una vez instalado el cargador de arranque y configurados algunos detalles, el sistema esta listo para funcionar.

Desde que comenzaba la instalación hasta el primer arranque transcurrían solamente 30 minutos, algo impresionante para la época y esencial cuando había que preparar varios equipos. Mientras que muchas otras distribuciones se concentraban en instaladores gráficos, Definite alcanzaba una velocidad difícil de batir.

GNOME, escritorio por defecto de Definite, apenas estaba modificado. Hubiese estado bien añadir iconos ya listos para el acceso a las unidades de CD y de disquetes, si bien la mayoría de los usuarios de esta distribución ya estaban familiarizados con el proceso de montaje de estos dispositivos. Además Definite incluía enlaces a sus páginas de soporte en el propio escritorio, asi como a otras fuentes de información. También estaba incluido KDE para quien lo prefiriese, además de otros gestores de ventanas como Window Maker o FVWM 95. En cuanto a las aplicaciones, a programas como GIMP 1.0.4 o Netscape 4.61 se unían otros como Apache 1.3.9 o el compilador egcs. El kernel suministrado era el 2.2.12 y la versión de XFree86 era la 3.3.5.

Sin embargo lo que realmente hacía excelente a Definite era su soporte RAID, convirtiéndolo en una más que capaz solución para servidores, además de un sólido sistema de escritorio. Otra característica destacable es el soporte ISDN (N.T.: En España, esa maravilla tecnológica que vendía Telefónica como RDSI), que si bien no significaba mucho para los usuarios servía como muestra de su flexibilidad. Y precisamente por haber sido desarrollado fuera de los Estados Unidos, esta distribución ofrecía mejoras en seguridad de red, como por ejemplo la encriptación de 128 bits en Netscape.

Por todo esto Definite Linux fue considerado un excelente y sólido sistema de uso general. La rápida de instalación y el amplio rango de software que incluía lo hacía una potente solución "instalar y listo", además de ser un sistema de fácil mantenimiento al aunar las herramientas típicas de Red Hat y Linuxconf. La calidad de la documentación y el soporte era soberbia, ayudando considerablemente que Definite PLC tuviese su sede en el Reino Unido. Si bien los nuevos usuarios quizá viesen más fácil empezar a trabajar con Mandrake, aquellos que buscasen un Red Hat pero obteniendo algo más por su dinero estaban ante la distribución adecuada.

Valoración de la distribución
  • Facilidad de uso: 4/5
  • Documentación: 4/5
  • Características: 4.5/5
  • Software: 4.5/5
  • General: 4.5/5
  • Comentario: Potente y flexible, con ciertas funcionalidades impresionantes. Gran elección para uso general.
Capturas de pantalla
Siguiente entrega: WinLinux 2000

Linux 2000 II: Corel Linux 1.0

Cuando Corel anunció que entraría en el mercado de las distribuciones Linux, la noticia fue acogida por la comunidad con esperanza y aprehensión al mismo tiempo. Pese a que estaba claro que ayudaría a mejorar la posición de Linux en el mercado, muchos pensaron que se corría el peligro de que se simplificase en exceso el sistema operativo. La compañía responsable de grandes éxitos como WordPerfect y CorelDRAW, había basado su distribución en la respetada Debian, estando dirigida a nuevos usuarios de Linux decididos a abandonar Windows.

El instalador gráfico de Corel fue bien recibido por los novatos en Linux así como por aquellos que procedían de Windows, contando con un proceso de configuración basado en cuadros de diálogo controlados con el ratón. Además de sobre todo el disco duro, podía instalarse directamente en un directorio de Windows. Sin embargo, el sistema se colgaba justo después de copiar los archivos, confirmándose después en los grupos de noticias de usuarios de Linux que éste era un problema bastante común. Según las páginas de soporte de la propia Corel, las dificultades se debían a problemas en las pruebas de hardware. Afortunadamente, los archivos quedaban copiados pese al fallo, siendo posible arrancar Corel Linux.

El escritorio de Corel se basaba en KDE con ciertas modificaciones y mejoras. El añadido más significativo era el Corel File Manager, parecido al Explorador de Windows, de forma que proporcionaba una interfaz familiar a los nuevos usuarios. Asimismo se incluía FVWM 95 como alternativa. La versión de XFree86 era la 3.3.5 y contaba también con GIMP 1.0.2, Netscape 4.7 y Adobe Acrobat Reader. Aunque se trataba de un amplio espectro de aplicaciones, se podían añadir software extra, si bien resultaba algo complicado ya que Corel Linux usaba paquetes .deb en lugar de los RPM comunes en el resto de distribuciones.

Aún así, circulaban bastantes paquetes Debian por ahí y si no siempre se podía utilizar la herramienta "alien" para convertir los RPM al formato nativo. Asimismo, los usuarios avanzados contaban con herramientas como el compilador GCC y el administrador de archivos Midnight Commander.

Parecía prometedora, demostrando que Corel había trabajado duro en varios puntos clave. La poca variedad convirtió en algo destacable la posibilidad de configurar la red y el servidor gráfico X desde el panel de control de KDE. Los usuarios más avanzados observaron limitaciones, y la gran cantidad de fallos de instalación con los que uno podía encontrarse no la hacían recomendable como primera opción-.

Valoración de la distribución
  • Facilidad de uso: 3/5
  • Documentación: 4/5
  • Características: 4/5
  • Software: 3/5
  • General: 3/5
  • Comentario: Tiene potencial, pero necesita trabajo por los problemas en el instalador.
Capturas de pantalla
Siguiente entrega: Definite Linux 7.0

Linux 2000 I

A través de esa sectaria fuente de sabiduría que es menéame y con ayuda de una cabina telefónica capaz de viajar en el tiempo me topé con este interesante artículo de Tux Radar que nos traslada al año 2000 para presentarnos las principales características de las distribuciones Linux del momento, algunas ya desaparecidas mientras que otras que ahora dominan estaban prácticamente en pañales. Como todo el texto, introducción y análisis de las distribuciones, es demasiado largo, esta vez el post también será por entregas. Empezamos con una reseña histórica y un repaso al concepto de distribución Linux.

Nota histórica
Debe tenerse en cuenta que en el mundo de la Informática nueve años es mucho tiempo, y más si se trata de Linux. En 2000 este S.O. todavía se veía como algo reducido a un nicho de usuarios, un fantástico escenario tecnológico para geeks que no estaba preparado para el gran público. Hoy Linux está presente en netbooks, Dell lo incluye de serie... está en todas partes. Es algo serio.

Corel Linux hace tiempo que murió, pese a nacer como una distribución de perfil alto, mientras que Caldera Linux ocupó una posición privilegiada hasta que "los cafres de SCO se lo cargaron". SUSE, Mandrake, Red Hat y Mandriva siguen vivos en varios sabores, mientras British Definite "murió en combate" y WinLinux no pasó de 2003.

¿Qué hace buena a una distribución?
En la época de los primeros días de Linux, instalar un sistema operativo en tu ordenador solía ser una tarea larga y complicada. Muchas veces era necesario descargar paquetes sueltos de Internet para luego descomprimirlos todos al disco, además de tener que lidiar con montones de ficheros de configuración si querías tener un sistema plenamente operativo (N.T.: Chiste añadido con la traducción). Aquí es donde aparecen las distribuciones: un concepto ideado para hacer la instalación y configuración de Linux algo mucho más sencillo.

En lugar de averiguar qué software necesitabas e intentar descargarlo, se proporcionaba todo en un paquete simple y sencillo, acompañado de manuales y programas adicionales en CD. Además, gran parte de la configuración ya se podía ajustar durante la fase de preparación.

Hoy en día contamos con una amplia variedad de distribuciones Linux, apareciendo otras nuevas constantemente. Al ser Linux código abierto y de libre disponibilidad, cualquiera puede coger partes de un sistema que funcionen y montar su propia distribución. Red Hat es, claramente, el proveedor comercial de distribuciones más destacado, si bien otros como SuSE y Mandrakesoft lo siguen de cerca.

Esta libertad que permite a cualquiera montar su propia distribución ha llevado a disponer de un surtido de paquetes con diferentes objetivos tales como instalaciones rápidas y fáciles, fiabilidad en servidores, o simplemente sistemas robustos de propósito general. Ha sido esta amplitud de miras la que ha llevado a Linux a hacerse popular en otros mercados. Pueden comprarse sistemas completos con manuales y discos adicionales con aplicaciones y código fuente, además de un inestimable soporte de instalación. Además, si uno ya está familiarizado con Linux o sólo quiere actualizarse, basta hacerse con una versión económica o incluso gratuita bien en CD, bien a través de la Web.

En la siguiente entrega: Corel Linux 1.0

viernes, 6 de febrero de 2009

Optimización del embarque de un avión II

El algoritmo

Tras muchas simulaciones basadas en comportamientos arbitrarios de los pasajeros y diversos tiempos de guardado del equipaje de mano, se concluye que la mejor manera (uno de varios métodos más o menos equivalentes) es llamar primero a los pasajeros de los asientos pares de ventanilla de la zona trasera.

Por otra parte, es menos probable que los pasajeros que se encuentran guardando su equipaje de mano en los compartimentos estorben a los demás si hay una fila vacía en medio. Además, sí pueden meterse en ella si alguien que se sienta más atrás necesita pasar.

Una vez que han embarcado estos pasajeros, se da paso a los que se sientan en las plazas pares de ventanilla de la zona media de la cabina, y seguidamente se deja pasar a los que ocupan idénticas plazas en la parte delantera. A continuación se procede de igual forma con los asientos pares centrales y de pasillo.

Finalmente, una vez que todos los pasajeros que ocupan las filas pares del avión han embarcado, se aplica el mismo procedimiento (ventanilla, centro y pasillo, siempre de atrás a adelante) a los pasajeros de las filas impares. Puede ser que estos pasajeros no encuentren una fila libre a la que moverse si obstruyen el paso a alguien, pero seguirán estando separados de los pasajeros que entran por una fila par ocupada.

Parece que la razón por la cual este protocolo es más rápido es porque se permite un mayor número de personas guardando su equipaje de mano simultáneamente, sin duda uno de los procesos que mas tiempo consume durante el embarque.

Steffen comenta que que estos y otros esquemas similares pueden resultan complicados para el pasaje, pero éste no necesita recordar el algoritmo completo. Basta con asignarles zonas consistentes con el procedimiento.

El resultado es bastante robusto si se tiene en cuenta que apenas se ve afectado por desviaciones como, por ejemplo, parejas o familias que se sienten juntas e intenten entrar a la vez.

Por descontado que las aerolíneas deberían complementar estas conclusiones teóricas con estudios empíricos. Las simulaciones sugieren que estos protocolos podrían reducir los tiempos de embarque a un sexto de lo que se tarda por el sistema tradicional actual. Si se multiplica el número medio de pasajeros por viaje por el número aproximado de viajes y por el número de minutos ahorrados por embarque, resulta que las horas ahorradas son más que considerables.

jueves, 5 de febrero de 2009

Optimización del embarque de un avión I

Para evitar generar otro ladrillaco (que parecen ya una tradición en la corta vida de este blog), en este caso voy a partir la traducción de la noticia en dos posts consecutivos, así si queréis leeis la primera parte y si os da la gana os resulta interesante, seguís con la segunda. En este caso se trata de un artículo publicado en la web de ABC News acerca de las disintas simulaciones que un astrofísico del Fermi Lab de Chicago Jason Steffen ha realizado para analizar la rapidez y eficiencia de diferentes estrategias de embarque de pasajeros en los aviones; el resultado no tiene desperdicio. Ahí os va la primera parte:

"Zona 4, embarque inmediato". Con este anuncio uno se pone a la cola, pasa junto al mostrador de billetes, cruza la pasarela y finalmente entra en el avión, donde puede contemplar cómo varias personas aplastan sus desgarbados equipajes de mano en los compartimentos superiores mientras otros esperan impacientemente en los pasillos a poder hacer lo mismo. Aquellos que ya están sentados en sus plazas de pasillo lanzan miradas desconfiadas a la próxima mochila que amenaza con atacarles cuando su propietario se gire inconscientemente en el pasillo para guardarla.

¿Es realmente el método estándar la mejor manera de embarcar en un avión? Existen variaciones, pero casi todos los métodos utilizados hoy en día se basan en el embarque según asientos o grupos de los mismos organizados para que los pasajeros de la parte trasera del aparato embarquen primero y no bloqueen el paso de los que lo hagan posteriormente. Esta es la teoría, al menos.

Desgraciadamente, puesto que la gente que se sienta en una misma fila no puede guardar su equipaje de mano de forma simultánea, siempre habrá gente bloqueando el pasillo mientras lo intentan. Además, aquellos pasajeros sentados en plazas de pasillo no sólo tienen que esquivar el equipaje que va pasando, sino que deben levantarse y dejar pasar a los ocupantes de los asientos del medio y ventanilla de su fila que lleguen más tarde. Es un desorden que consume tiempo y espíritu.

Mejor si separamos a los pasajeros

Presentamos a Jason Steffen, astrofísico del Fermi Lab de Chicago. Mediante simulación por ordenador ha examinado diferentes estrategias de embarque enfocadas hacia la velocidad y la eficiencia.

Para simplificar (Chiste del Traductor: Supongamos una vaca esférica ideal...) su modelo parte de un avión con 120 pasajeros sentados en filas de tres asientos a la izquierda y tres a la derecha separadas por un pasillo central. También asume que cada uno de los 120 pasajeros tiene su asiento asignado y carga con equipaje de mano, así como que camina por el pasillo si y solo si no hay nadie en frente de él.

Así que, partiendo de estas razonables suposiciones, ¿cuál es la mejor manera de embarcar? Parece que por simple intuición lo peor sería hacerlo comenzando por las plazas delanteras y siguiendo hacia las traseras. Y esta es, de hecho, la peor forma de embarcar.

Casi es igual de intuitivo que la forma clásica de hacerlo (de atrás hacia adelante) debería ser de las mejores, sin embargo las simulaciones de Steffen indican que es la segunda forms más lenta. Incluso el embarque aleatorio es mas rápido.

Ya sabéis, sigue en el siguiente post.

¿Y cuántos terrabytes dices que caben?

Obtenida de menéame (con bonus alienígena), poco tengo que decir esta vez ante semejante ida de olla por parte del autor de BLDGBLOG (lo peor es que si os dais un paseo por el blog veréis que no es la única...) sobre la posibilidad de que la Tierra sea un disco duro gigante. Leed y sacad vuestras propias conclusiones.

Durante años me ha fascinado lo que han dado en llamar naturaleza geológica de los discos duros (cómo la disposición de ciertos minerales metálicos y el ferromagnetismo resultan en nuestra capacidad tecnológica de almacenar información en memorias, y así guardar versiones anteriores del presente)

Un disco duro, sin embargo, más que un objeto geológico es un objeto técnico; una muy procesada reconfiguración rica en contenidos de la superficie terrestre.

Esto me recurda otra fantasía que tuve acerca de que quizá algún día no necesitemos realmente los discos duros, sino que usaremos la geología por sí misma.

En otras palabras, ¿y si fuera posible manipular el campo magnético terrestre y así almacenar datos en la energía interna del planeta?

La Tierra se volvería una especie de disco duro esférico en el cual se almacena la información en esa telaraña de energía magnética que se mueve y penetra su superficie.

Esto puede llevarse más allá con la idea de que quizá algo, orbitando en el espacio, funcione realmente como disco duro de una especie inteligente con la que todavía no hemos topado. Serían algo así como Estrellas de la Muerte mnemónicas, instalaciones esféricas de almacenamiento de datos compuestas de roca madre rica en los minerales adecuados o quizás, y aún más interesante, algún día descubramos, en una extraña adaptación de alguna obra de Julio Verne dirigida por James Cameron, que la propia Tierra se encuentra codificada con los datos de alguien y que, en las formaciones rocosas de la corteza, afloran archivos cristalinos.

Me acuerdo de una línea de la novela de William S. Burroughs "The Ticket That Exploded" en la que se puede leer algo de todo esto. En concreto, en la superficie terrestre se oculta "una vasta consciencia mineral cercana al cero absoluto basada en formaciones cristalinas".

En cualquier caso, se me vino todo esto a la cabeza anoche mientras leía un artículo en New Scientist (N.T.: Muy interesante, muchos artículos sobre distintos campos de la ciencia) sobre cómo puede que los hologramas 3D revolucionen el almacenamiento de datos. Un DVD codificado holográficamente, por ejemplo, podría almacenar la increíble cantidad de 1000 GB de información.

Entonces, ¿cómo se forman los hologramas 3D? "Mediante un par de haces laser se consigue escribir la información sobre discos de plástico fotosensible apuntando ambos al mismo punto", explica el artículo. "Un haz brilla continuamente, mientras que el otro parpadea codificando zonas como ceros o unos binarios".

La cuestión, entonces, reside en si sería posible o no construir una version geotécnica de esta idea, una vasta y lenta máquina (fabricada por Komatsu) que se mueve para exponer zonas de roca madre para su "codificación" como datos. Es decir, se usaría para escribir información en el planeta.

Por usar un mal juego de palabras, podrían almacenarse TERRABYTES de información (N.T.: Link resaltado para hacer notar el CHISTAZO JAVIL que supone).

Sin embargo podría tratarse de una nueva forma de labranza en la que los surcos que se aran en la tierra no son para plantar semillas sino datos. Un paisaje nuevo, completamente rediseñado, en que una parte de la Tierra está formateada para almacenar archivos encriptados... Jardines de datos. Incluso podrían leerse por satélite.

Como algo fruto de la mente de H.P. Lovecraft (o de las más trastornadas mentes de los primeros exploradores europeos), los humanos del futuro mirarán con inquietud al suelo cuando caminen sobre él, sabiendo que grandes hologramas se extienden en esa rocosa oscuridad como inexplicables telarañas tejidas a través del planeta.

Bajo una masiva extensión de roca en la más recóndita esquina de Nevada, hologramas de alto secreto ocultados por el Gobierno esperan una futura decodificación. De este modo el planeta se convierte en un archivo.

INCREÍBLE. NO TENGO NADA MÁS QUE DECIR.

miércoles, 4 de febrero de 2009

Bricomanía: Hazte tu propio supercomputador

A través de Digg llego a una noticia publicada en ComputerWorld sobre cómo un grupo de trabajo de la Universidad de Wisconsin-Milwaukee se construyó su propio supercomputador para poder continuar con sus investigaciones sobre ondas gravitacionales. Al primer equipo, fabricado en 1998, siguieron tres más dedicados al mismo campo de estudio. A continuación la traducción libre de la noticia, en la que he preferido dejar todos los enlaces a otros artículos por ser relevantes para la comprensión de la misma:

(NOTA: Ladrillaco... para no variar)

Quizás Bruce Allen sea el mejor "bricomaníaco" (N.T.: por decirlo de alguna forma) del mundo. Cuando necesitó un supercomputador para
mejorar los resultados de sus investigaciones sobre ondas gravitacionales, simplemente juntó a sus compañeros de la Universidad de Wisconsin-Milwaukee para construir uno ellos mismos.

Eso sucedió en 1998, y desde entonces ya ha fabricado tres supercomputadores más, todos ellos dedicados a la detección de ondas gravitacionales, las cuales en teoría emanan de los agujeros negros así como de explosiones de estrellas, si bien nunca han sido observadas directamente.

Su obra más reciente, un clúster de 1.680 máquinas de 4 núcleos cada una, se encuentra en Hannover, capital del lander alemán de Baja Sajonia. En esencia se trata de un procesador de 6.720 núcleos que, meses después de ser construido, se colocó en el puesto 58 del mundo. "Hemos completado la última fila de racks hace poco, encontrándonos actualmente en el número 79 de la lista Top500 vigente", comenta Allen, director del Instituto "Albert Einstein" de la Sociedad Max Planck de Física Gravitacional.

La construcción por él mismo del supercomputador se debe a varias razones, siendo una de ellas la idea de su creador de que de ese modo obtiene más y mejores resultados invirtiendo su propio dinero.

"Si acudes a una compañía como Dell o IBM y les dices 'Tengo un presupuesto de 2 millones de dólares, ¿qué me vendes por ese precio?', volverás con un determinado número de CPUs", afirma. "Si te pasas por Pricewatch o cualquier otro portal donde puedas analizar los precios reales, comprobarás que es posible construir algo uno mismo por el mismo dinero pero alcanzado dos o tres veces más potencia de cálculo. El problema reside en que esas grandes compañías se basan en una estructura sobrecargada de capas y capas de gestión empresarial e ingeniería. Venden buenos productos, y no necesitas pericia alguna para comprarlos. Al menos esa ha sido mi experiencia, que si hago algo yo mismo, obtengo más por menos".

Por ejemplo, el primer supercomputador que construyó partió de una ganga de clúster Linux de 48 DEC Alpha Servers que habían sido retirados, cada uno con un procesador AXP de 64 bits y 300 MHz. "Hice un buen trato, creo que el precio de tarifa eran 6.000 dólares, y yo los compré en el supuesto final de su vida útil por 800. Como switches utilicé un par de 3Com Superstack Ethernet de 100 Mb/s con 24 conexiones cada uno".

Los servidores se alojaban en una habitación poco más grande que un armario, dispuestos en estanterías prefabricadas compradas en tiendas de bricolaje. "No eran racks, ya que de haber montado así el sistema su coste se hubiese disparado", dice Allen. Todo el montaje consumía unos 200 vatios y la sección de mantenimiento de la Universidad tuvo que retirar las rejillas del aire acondicionado de la sala para poder disipar mejor el calor de forma eficiente.

El coste total rondó los 70.000 dólares, cantidad donada a Allen por la National Science Foundation (NSF). La donación era para comprar 8 estaciones de trabajo Sun, pero decidió invertirlo en el clúster Linux.

"Más o menos un año después me encontraba dando una conferencia sobre todo esto y vinieron a verme dos miembros del programa de la NSF del que obtuve el dinero, ante los que me disculpé diciendo 'me siento muy avergonzado, al menos espero que no se hayan enfadado por haber seguido adelante con esto'. Entonces se rieron y dijeron, 'bien, estamos muy, muy contentos, si no hubiese tenido éxito no estaríamos diciéndole esto'".

Allen afirma que otro beneficio de construirse su propio supercomputador es tener el control sobre el mismo, ya que utilizando un supercomputador compartido se crean retrasos que para nada son bienvenidos. En el Centro
Caltech para Aplicaciones de la Supercomputación, por ejemplo, tienen que encolar sus trabajos y esperar dos días a que les llegue el turno. Una vez les llega, si han cometido algún error, incluso si no es correcto un simple carácter de un archivo, tienen que rehacerlo todo y enviar de nuevo el proceso al final de la cola, lo que supone otros dos días de espera.

Comenta también que no hay una formación establecida sobre la construcción de supercomputadores. Muchos de los que ha utilizado se basan en la tecnolgía open-source de clusterización Beowulf. "Yo creo que no es necesario tener conocimientos específicos", dice Allen. "Mucha gente se monta sus propias redes Linux en casa, y cualquiera de ellos con un poco de dinero y necesidad de un clúster podrían fabricarse uno, creo."

La parte más complicada de la fabricación del clúster es todo lo que respecta a la red, siendo a su vez lo más peliagudo la configuración automática de cada nodo. Cuando Allen comenzó con su clúster de 48 nodos en 1998, configuró a mano cada uno de los servidores. "Enseguida descubres que si tardas 5 minutos en configurar un nodo y tienes que hacerlo 48 veces, como mínimo necesitas una mañana (o tarde), sin tener en cuenta que siempre se cometen errores.

"Por ello la clave se encuentra en la configuración de los sistemas para realizar tareas de forma automática tales como la instalación desatendida de sistemas operativos y posterior clonado de los mismos. Por suerte hay un montón de herramientas libres ahí fuera para hacer eso".

Allen comenta que utiliza los supercomputadores como herramienta de observación de ondas gravitacionales, es decir, como una herramienta más para conocer mejor el universo. "Por ejemplo, las parejas de agujeros negros no emiten tipo alguno de luz ni radiación optica, ondas de radio o rayos X, sin embargo sí emiten ondas gravitacionales, así que tenemos que estudiarlos fijándonos dichas emisiones. ¿Y quién sabe que más descubriremos? Esta es en realidad nuestra esperanza, encontrar algo realmente novedoso".

martes, 3 de febrero de 2009

No es lo mismo (aunque sí lo sea)

Ahora que estamos en tiempos de crisis (o eso dicen los políticos, a ver si después de lo que les costó decirlo va a resultar que es todo un invento de los de Supertramp), la Ohio State University ha realizado un estudio acerca de la percepción que la gente tiene sobre las cantidades de dinero que manejan, extrayendo del mismo la conclusión de que, pese a la evidencia matemática de que 1 dólar y 100 centavos son lo mismo (aplíquese en nuestro caso a euros y céntimos respectivamente), en determinadas ocasiones la gente se comporta como si 100 centavos valiesen más que 1 dólar. A continuación la traducción libre del artículo que al respecto ha aparecido hoy en el portal de divulgación científica ScienceDaily.com.

(NOTA: ¡Ponte casco que viene un ladrillaco!)

Todos sabemos que 1 dólar equivale a 100 centavos. Sin embargo un nuevo estudio sugiere que, en determinadas situaciones, la gente puede comportarse como si en realidad 100 centavos valiesen más.

Esto sucede porque, según el estudio, la gente se fija más en el propio número que en el valor económico que éste representa.

“En algunos casos, el dinero funciona como un marcador, es decir, vence el número mayor independientemente de su valor real”, comenta John Opfer, coautor del estudio y profesor ayudante de psicología en la Ohio State University.

Una implicación importante de todo esto es que las recompensas pecuniarias no tienen por qué afectar al comportamiento a causa de su valoración económica, afirma Opfer. A veces, es el valor numérico de dichas recompensas el que marca la diferencia. Por todo ello hay gente que cree tener más dinero cuando tiene 100 centavos que cuando tiene 1 dólar, simplemente porque 100 es mayor que 1.


El estudio fue dirigido por Opfer en colaboración con la estudiante de Psicología de la Ohio State University Ellen Furlong, apareciendo dicho trabajo en el número de enero de 2009 de la revista especializada Psychological Science.


En el estudio participaron diversos sujetos de prueba a los que se invitó a realizar una experiencia típica en psicología y propia de la teoría de juegos llamada "dilema del prisionero". En esta versión, dos jugadores tenían que decidir de forma privada y separada si cooperarían o defraudarían al compañero en un intercambio económico.


Si en privado ambos afirmaban que iban a cooperar, ganaban 3 dólares; si uno de ellos decidía defraudar al otro, éste último ganaba 5 dólares y el primero nada; por último, si ambos decidían defraudarse mutuamente, solamente ganaban 1 dólar cada uno.


El juego fue diseñado para observar bajo qué condiciones la gente decide cooperar entre sí. Estudios previos habían mostrado que la gente suele colaborar cuando el reparto es mayor, es decir, las probabilidades de que cooperasen aumentaban a medida que lo hacía la cantidad a repartir.


Sin embargo, Opfer afirma que lo buscaba era saber si en realidad se podían predecir las decisiones de la gente basándose el valor económico de las cosas, o simplemente se fijaban en el valor numérico.


De este modo, en otro estudio, los investigadores reunieron a 48 estudiantes universitarios para realizar con ellos el ya comentado juego del prisionero. La mitad de ellos jugaban por dólares, y la otra mitad por las mismas cantidades de dinero, pero expresadas en centavos. Por ejemplo, algunas parejas podían ganar 3 dólares si cooperaban, mientras que otras ganarían 300 centavos. La experiencia fue repetida 80 veces.


Los resultados fueron que los estudiantes que jugaban por 300 centavos cooperaban más frecuentemente que quienes lo hacían por 3 dólares, aún siendo evidente que ambos grupos jugaban por la misma recompensa económica. Esto significa que aquellos estudiantes que jugaban por 300 centavos actuaban así porque consideraban que obtenían mayor beneficio que quienes lo hacían por 3 dólares.


En un segundo estudio se comprobó que los resultados del primero no se basaban en una mayor preferencia por los centavos que por los dólares, sino que en general preferían recompensas con mayor valor numérico. Este hecho quedó demostrado al ver que los jugadores cooperaban un número similar de veces tanto si se les ofrecía 300 dólares como 300 centavos, pese a lo evidente de la diferencia económica entre ambas recompensas.

Asimismo la cooperación fue similar cuando se ofrecían bien 3 dólares, bien 3 centavos, aunque en este caso el número absoluto de casos de cooperación fue sensiblemente menor.

“Esto muestra que no son los dólares los que hacen a la gente decidirse a cooperar o no, lo único que importa es si juegas por 3 o por 300. El incentivo para favorecer la cooperación no es económico, se trata de una simple cuestión de cantidades”, sentencia Opfer.


El hecho es que la conclusión de que la gente se vea más impresionada por los números grandes tiene importantes implicaciones en la vida real. Por ejemplo, mientras que la diferencia económica entre 3 y 5 dólares es la misma que entre 103 y 105 (2 dólares en ambos casos), la diferencia entre 3 y 5 destaca más que la que existe entre 103 y 105.


Estos hallazgos desafían algunas asunciones básicas sobre los procesos de decisión humana. Opfer llega a afirmar que incluso la voluntad de cooperación entre partidos políticos o grandes corporaciones aumenta cuanto mayores sean las cantidades, como pudiera ser el caso de la reciente inyección de capital al sector financiero por valor de 700.000 millones de dólares. En cambio ante cantidades menores, como la propuesta de ayuda a la industria automovilísitca con 15.000 millones, cabe esperar menor cooperación.


Según Opfer, y dejando a un lado a los partidos y las corporaciones, cuando una persona decide ahorrar para su futuro o evalúa el riesgo de una inversión, sus decisiones muy probablemente se verán influidas por la magnitud de los números que intervienen en la situación.