31 enero 2007

Neutralidad tecnológica

No es una noticia nueva, es de octubre del 2006, pero es interesante. Resulta que el gobierno actual hizo un borrador de la ley de Administración Electronica. Se enorgullecen de colocarnos a la vanguardia europea... y no se cumple ninguna de las recomendaciones de Europa... El consejo asesor estaba formado por EMPRESAS... ¿Donde se ha visto eso? Pusieron el borrador a disposición del público en 060.es para que el ciudadano pudiera opinar. Hay que registrarse, cosa que reduce las opiniones. Aun así, hay más de 200. Unanimidad en todas ellas. No se nombra en la ley al logical libre y código abierto, imprescindible para el avance tecnológico de España, por no nombrar la seguridad nacional. El supuesto objeto de la ley, permitir el acceso libre a la administración, no se cumple en absoluto. No he encontrado el estado actual del asunto, pero dudo que haya cambiado mucho teniendo en cuenta lo lentas que son las cuestiones de leyes. Si alguien sabe algo podría informar. Lo que se ve son detalles y ambigüedades realizadas a propósito para dejar las cosas como están. Y están muy mal. Dependencia absoluta de una empresa extranjera, y lo que es peor, se está haciendo sin concurso público. O sea, que por cada compra de un equipo informático o un programa en la administración, cualquier administración pública, se hace algo ilegal.
Hispalinux hizo un documento de enmiendas a la ley en octubre (del 2006), donde se ven esos matices sospechosos. Es éste (se abre en ventana nueva).

He encontrado una página web útil sobre estas cosas. Es el Observatorio de neutralidad tecnológica (se abre en nueva ventana). Han elaborado un interesante y amplio informe (se abre en nueva ventana) que entregan al Mº de Administraciones Públicas, para ver el pésimo estado en el que nos encontramos. Es útil para quien no conozca la realidad del asunto. Lo peor de todo es darse cuenta que el apartado de denuncias es solo un pequeñísimo ejemplo de lo que ocurre realmente.
Si quieres denunciar algún caso abusivo por parte de la administración (obligar a usar MS Explorer para algún trámite), puedes denunciarlo en dicho sitio web.

30 enero 2007

Lanzamiento mundial de windows Vista. La emoción me embarga.

Parece ser que Microsoft ha puesto a la venta hoy 30 de enero de 2007 el Windows Vista, y los japoneses han ido como locos a las tiendas a comprarlo. Se ve que en Japón les sobra el dinero. Es el windows más caro que ha habido. Se supone que la tendencia es a la baja, y MS va al revés que el mundo. ¿Por qué? porque son los dioses.

¿Aporta algo nuevo el Vista? podéis leer cientos de artículos y veréis que no. Nada en absoluto, por mucho que digan algunos periodistas untados a conciencia por Microsoft. Lo que incorpora se ha visto anteriormente en el propio windows (con programas de terceros) y sobre todo en otros sistemas. Lo que tenía Apple en el 2002 lo sacan ellos ahora. No cambian. Funciona más lento y necesita más recursos que el XP, y sobre todo que cualquier otro sistema operativo de la competencia, ofreciendo bastante menos (no hay más que ver Beryl funcionando en Linux, en una máquina de más de 5 años). Es lo más gracioso de todo. Un sistema operativo está hecho para crear un medio de comunicación entre el hombre y la máquina, y debe cumplir que funcione lo más eficientemente posible. Pero Microsoft va por libre. ¿Por qué? porque son los dioses.

Ya han puesto fecha para el SP1, que para el que no lo sepa, es el paquete de parches y añadidos varios. Eso debería olerle mal a cualquiera. Acabado de lanzar, y ya saben cuándo van a sacar el paquete de arreglos. O sea, que esta versión se ha lanzado sabiendo que no está acabada, pero no importa, porque lo van a vender igual. Lo que importa es una buena imagen aunque el interior esté podrido.

Sabían que en Japón habría esa avalancha. Son los números uno en mercadotecnia. Pero aunque tengan tanta publicidad gratuita por parte de los telediarios de todo el planeta, lo que les va a quedar es ese arranque de ventas de unos pocos si el ser humano no es imbécil, cosa que empiezo a creer que es inherente.

Otra cosa es la administración pública, que en estos últimos años, a nivel mundial, está empezando a darse cuenta que tirar el dinero del ciudadano a la basura, o mejor dicho, a esa gran empresa de Redmond, EE.UU., no es correcto. De ahí saca el dinero Microsoft realmente. ¿Que pasará? En las administraciones no hay ordenadores con 2 Gb de memoria. Suelen tener un máximo de 512 Mb, como muy mucho, sin hablar del resto de componentes. Con eso ni se instala, por lo que he observado. Por mucho que un funcionario encargado de informática quiera tirar el dinero porque adora a Bill Gates y quiere la edición especial con su firma (que ya vale un pico), no podrá ni instalarlo.

¿Adoras windows? pues quédate con el XP (hasta que te convenzamos de usar Ubuntu). ¿Te gusta el aspecto del W. Vista? Pues instálate el "Bricopack Vista Inspirat" en el XP.

Por el bien de todos, espero que esto sea el gran batacazo de Microsoft, y el principio de su fin. No merecen otra cosa después de una historia con un enorme rastro de cadáveres digitales y una planificación de futuro de dictadura, quizá más allá de lo digital.

29 enero 2007

Que gente más cansina.

Me repetiré mil veces, pero es que me hartan. Suelo leer foros y opiniones de diversas cosas. La norma general de las discusiones es que si uno sabe sobre un asunto, puede opinar. Cuanto más sabe, más puede opinar. Si no tiene ni idea, pregunta y se informa, o escucha/lee. Siempre hay quien habla sin saber, pero es algo que cualquiera nota.

Hagamos un paralelismo: la mecánica. Pongamos que visitamos un foro de mecánica y tenemos nociones básicas. O sea, podemos saber que es un cilindro, el cigüeñal, los segmentos... y vemos a alguien que pregunta qué es un segmento. Se lo podemos decir. Pero vemos a alguien que pregunta sobre un ruido metálico que proviene de la parte inferior del vehículo. ¿Nos metemos? NO, porque no tenemos ni idea. O si hemos leído en algún sitio que puede estar relacionado con X cosa, se lo podemos indicar, haciendo notar que quizá no tenga nada que ver. Es algo que he visto mucho.

Vamos al caso que me harta, no por él, sino por la gente que opina. Linux-Windows. Salta una noticia sobre algo de Linux o de Windows. Pasa lo de siempre, hay opiniones sobre el contrario. Vamos a ver. Se da la circunstancia de que prácticamente todos los usuarios de Linux han usado windows alguna vez. Y más aún. La mayoría tienen un nivel elevado de windows, y por unas u otras razones están obligados a usarlo (trabajo), razón por la cual están bastante hartos de él. Vemos claro que la mayoría de usuarios de Linux conocen windows ampliamente. Muy pocos no lo conocen (felices ellos). Vemos entonces que un usuario de Linux puede opinar todo lo que le dé la real gana sobre windows porque lo conoce, lo ha sufrido, quizá incluso esté administrando en el trabajo múltiples estaciones windows y un dominio con su directorio activo, el ldap estándar modificado al estilo Microsoft, y demás zarandajas, pero siendo usuario convencido de Linux lo recomienda a otras empresas no tan estúpidas como la suya. Sobre el paralelismo del foro mecánico, son equiparables a los mecánicos o aficionados a la mecánica.
Luego saltan los que opinan contra Linux, usuarios de windows con más o menos conocimientos sobre éste de los cuales una pequeña parte ha probado alguna vez alguna distribución, y una ínfima parte una reciente. Se creen todo lo que Bill Gates les ha hecho creer y tienen múltiples prejuicios contra todo lo que no sea de Microsoft. No me extiendo, ya lo sabéis todos. Van pregonando cosas que han leído sobre Linux que ni han probado ni conocen, haciendo creer a otros esas cosas, cosa grave teniendo en cuenta que GNU/Linux debería ser protegido por todos por ser de todos. Son los que, con el paralelismo mecánico, explicarían que un cilindro es una parte de una rueda con total convencimiento, aunque curiosamente en foros de temas ajenos a la informática este tipo de cosas no pasan tanto.

En Linux siempre hay una forma. En windows, si algo falla, te jodes. Perdón, quería decir te quedas sin usarlo. Como mi escáner, que va en Linux y no en windows. No, no hay siguiente siguiente siguiente ni en uno (aun) ni en otro en este caso, pero me funciona en uno y en otro no. Todo lo demás, no he tenido que tocar nada. Sólo instalar desde los repositorios. Debo tener muchísima suerte de que nunca me falle nada. En más de 5 ordenadores totalmente distintos, por cierto. Si, una ati hizo que las X no tiraran en un principio. Es lo único que falla: Buen soporte de los fabricantes y la sustitución del controlador gráfico en caso de fallo, disponible en el próximo Xorg.

Los usuarios de windows casi siempre tienen al "pringao", el que les instala todo y les arregla todo. Con linux, si el pringao lo instala (que es lo único que puede complicarse por el mal soporte de algunas empresas) ya no hay que arreglar nada más.
Los usuarios avanzados de windows dicen que es más fácil de usar, o administrar o lo que les plazca. Tus años te ha costado. Ah, esos grandes momentos buscando entre miles de fáciles ventanas algo que pensabas que estaba en un sitio y no está y tienes que dar mil vueltas. Yo he pasado por lo que tú, así que se de lo que hablo. Cuando conozcas Linux como yo, que tampoco es mucho, podrás decir todo lo que te venga en gana. Si la consola es mala, es raro que en windows haya el net use y demás en la consola, y que ésta la vayan "mejorando" (haciéndolo parecido a unix) En fin, si odias la consola no digas nada de administrar, que ni sabes de un sistema ni del otro.

Otra. La típica opinión necia sobre el funcionario que le cuesta cambiar y lo trágico de quitarle windows... vamos hombre. Si les cambias de windows a linux y les dejas los iconos en el mismo sitio y el fondo del mismo color, ni se enteran. Si ni saben que es el panel de control en su mayoría...

Por último, windowseros convencidos, por culpa vuestra seguimos en una dictadura digital.
¿No veis que Linux es un trabajo de comunidad, un esfuerzo de mucha gente que trabaja por los demás? ¿Por que lo atacáis? ¿por qué protegéis a una empresa que se dedica a hundir a otras y cargarse estándares?

Ale, un día de estos pondré algo útil.

28 enero 2007

Me copian.

Veo en un "blog" que han copiado la mayoría de mis artículos sin mostrar el autor, y sólo en algunos se indica un irrisorio enlace. Comentar para otros que quieran o lo hayan hecho que no tengo problemas en que uséis mi material, pero lo mínimo que hay que hacer es indicar claramente el autor. Y estaría bien que avisarais, que es algo bastante común. En todo caso veo más lógico enlazar al origen en lugar de copiar, pero bueno. Podéis ver el caso del artículo "verdades y mentiras de microsoft" donde hice lo que creo que se debe hacer en casos similares.

El mundo sin Microsoft

Tras haber leído en diversos lugares esbozos de la verdadera historia de MS y asuntos afines, (ver enlace de un artículo recopilatorio: Verdades y mentiras de Microsoft) pensé en cómo sería el mundo si la madre de Bill Gates no hubiera conocido al entonces presidente de IBM. Eso, al parecer, es lo que hizo que la todopoderosa IBM accediera a las exigencias del joven Gates. La principal fue quedarse con la propiedad del DOS, el sistema operativo que llevaría el IBM PC (ordenador hecho de componentes baratos que no destacaba por su calidad), y dar a IBM únicamente la licencia, y no la propiedad como debía ser. Ese fue el punto de inflexión que hizo que el avance desenfrenado de la informática se viera frenado en seco.
Hay que ver como era el mundo entonces. Existían muchas marcas ensambladoras de ordenadores, y fabricantes de componentes variados. Unas se comerían a otras sin remedio, pero no al ritmo que se ha dado con la presencia de este jugador. Existían múltiples empresas de desarrollo de programas, algunas verdaderamente buenas. La mayoría de ellas fueron eliminadas, bien por compra directa (los fundadores de Microsoft ya eran ricos por familia), bien por tácticas monopólicas de dudosa legalidad. En aquel entonces, IBM era cuanto menos DIOS, y Microsoft se sentía a sus anchas con dicho "padrino".

El desarrollo de Internet fue totalmente abierto, estando los estándares disponibles para cualquiera sin tener que pagar, lo que hizo que este sector avanzara con la velocidad que lo ha hecho. Microsoft no lo vió venir, pero en cuanto echó mano, hace relativamente poco, ya teniendo un gran poder en la industria, hizo lo que en toda su historia: Romper y echar el freno. Por ejemplo, llevamos años con el estándar IPv6 disponible y seguimos con el IPv4. ¿Por qué? porque en windows y sólo en windows, de uso mayoritario, sólo puede usarse la versión 4. A no ser que te busques la vida para que funcione, con lo fácil que es windows... Sin nombrar los estándares que ha intentado cargarse y otros que lo ha hecho; para empezar ver el caso de "Internet Explorer". Simplemente el nombre ya fue para fastidiar. ¿Navegador? pues no, explorador, mareemos al personal. Y después, marearemos a los diseñadores.

¿Como sería el mundo?
Hace años, Unix reinaba en los grandes equipos. Existían sistemas operativos menores para microordenadores, como el CP/M, del que derivó el QDOS=MSDOS, el avanzado GEOS y otros específicos de cada marca de ordenador, hechos para un solo usuario, como los avanzados sistemas de Apple. Cuando más grande era el equipo, más tendía a Unix por necesidad. Se sabía que Unix era un buen sistema, tras tantos años de uso y mejora. Había varias versiones de Unix bastante poco compatibles, pero se creó un estándar para que todas pudieran ser compatibles.
Imaginemos. Tendríamos diversos fabricantes de procesadores de distintas arquitecturas, accesibles a cualquiera. Esas arquitecturas no se verían frenadas por la obligación de ser compatibles con el x86 de Intel (empresa beneficiada colateralmente por Microsoft que ha usado posteriormente tácticas similares), arquitectura bastante deficiente que seguimos arrastrando, y que va a quedar como única para el público general y pequeños servidores, viendo, entre otros, la decisión de Apple de adoptarla para sus nuevos mac. El éxito de unas sobre otras se basaría únicamente en la calidad, y seguramente habría mejores precios en general.

El hecho de tener diversas arquitecturas podría pensarse que es malo por el hecho de tener que desarrollar programas desde cero para cada una de ellas. No es así. Eso ocurría con los microordenadores, que no contaban con verdaderos sistemas operativos, tenían una memoria reducida y distintos dispositivos. La realidad es que, siguiendo con la tendencia de Unix, hubiéramos tenido distintos sistemas con los mismos programas, sin modificaciones importantes en su código fuente, debido a la estandarización. Sólo es necesario que el fabricante del procesador realice su compilador y/o suministre información. Si tenemos en cuenta que la distribución de Linux Debian soporta unas 15 arquitecturas distintas, (en poco tiempo estará disponible también para una cara consola que se ha lanzado hace poco) podemos darnos cuenta de cual es la realidad. GNU/Linux está estandarizado y es portable. Podemos tener cualquier procesador con Linux funcionando. Un ejemplo rápido es que podemos tener en un PC y en un Mac la Ubuntu 6.10 con los mismos programas exactamente. En esa realidad alternativa podríamos comprar un programa que en el mismo disco tuviera los instaladores y algunas bibliotecas para cada procesador o fueran descargables por internet, (o un programa único en algunos casos) siendo los datos comunes a todos. Los fabricantes de dispositivos darían soporte completo a todas las arquitecturas, dado que existiría un estándar abierto a todos. Tendríamos linux, bsd, darwin y otros muchos posibles sistemas operativos, abiertos o no, compatibles entre si. Por todo ello, no importaría que equipo tuviéramos, todo funcionaría siempre. Hay que fijarse aquí que esto no incluye únicamente a los ordenadores personales, incluye a cualquier tipo de dispositivo electrónico como asistentes personales (pda), teléfonos móviles avanzados, y cualquier cosa imaginable susceptible de incluir algún tipo de sistema operativo, por básico que sea.

Esperemos que podamos tener un futuro como hubiera tocado que fuera nuestro presente si no hubiera existido Microsoft, aunque hay empresas que no volverán. Sólo con que dicha empresa cumpliera los estándares, ya habría un gran cambio, pero todos sabemos que nunca lo hará porque nunca lo ha hecho, y por eso y sus demás tácticas, está donde está. Tanto se ha pasado de la raya que se ha creado demasiados enemigos, y éstos darán alas a GNU/Linux. En fin, algún día tendrá que arreglarse el grave bug número 1 (enlace a nueva ventana) que tiene marcado Ubuntu.

21 enero 2007

Logical libre en la administración pública

No se si anual o bianualmente, en la administración pública se realiza un informe sobre las tecnologías de la información. Incluye el parque de ordenadores actual y los cambios que ha habido en él, qué proveedores se utilizan, los programas utilizados por categorías, y el uso de logical (software para los anglosajones) libre y código abierto. Esto lo lleva a cabo el consejo superior de informática. Hace tiempo que recomiendan el uso de logical libre, incluso han realizado informes para que el gobierno actúe adecuadamente sobre determinadas leyes que afectan al ámbito de las tecnologías de la información, pero por lo visto últimamente, el gobierno actual pasa totalmente de los informes que pide a los diferentes consejos.

Puede verse el informe aquí(se abre en otra ventana)

Hay que tener en cuenta que la administración pública camina despacio, porque si no, los resultados son cuanto menos vergonzosos. Bueno, vamos a analizar.
La administración general del estado tiene mayoría de sistemas unix en servidores de diversos tamaños, y windows para sistemas de escritorio. Cuanto más grande, más Unix. Cuanto más pequeño, más windows. En los intermedios, más Linux. Cuestión de tiempo de renovación de equipos supongo. En administración local, se deduce de los resultados que los ayuntamientos pequeños son sistemáticamente engañados por los proveedores de logical. Al parecer desconocen que hay vida más allá de Microsoft. Cuanto más grande es el ayuntamiento o diputación, mejor política tiene en cuanto a la adopción de programas libres.
En los resultados generales hay que tener en cuenta que la media puede engañar. Hay que saber que la referencia española en tecnologías de la información es Extremadura, y allí todo es Linux, así que Extremadura sube la media de los resultados generales, que por tanto serán en realidad peores. También hay que contar con los colegios, que suben también la estadística de uso de logical libre en diversas autonomías. Vamos, que los resultados reales son verdaderamente patéticos actualmente. No hay más que ver que en servidores de páginas web, Apache tiene un irrisorio 13% y el IIS ¡un 57%!. ¿Pero esta gente a quien contrata los servicios?

Se incluye en el informe la accesiblidad de los sitios web. Por ley, desde el 31 de diciembre del 2005, las administraciones públicas están obligadas a que sus sitios web cumplan todos los estándares marcados por el W3C, lo que hace que éstas puedan ser accesibles para minusválidos y gente de edad avanzada. Pues esto es desesperante: sitios web accesibles SOLO UN 11%. O sea, que mayormente están optimizados para el virus MS Explorer, que por cierto es el utilizado casi en un 100% en toda la administración. Esperemos que no usen nuestros datos personales con dicho navegador...

De los paquetes ofimáticos no vale la pena ni hablar, pero hay que comentarlo. Existiendo Openoffice están tirando el dinero de los contribuyentes fuera de España continuamente. MSOffice, 61%. Aquí comentar que existe Lotus y Wordperfect, que son los que inventaron esto. Sé que muchos ayuntamientos han "actualizado" (o retrasado) al MS office 2007 cuando no usan nada que no tuviera la versión del 95 (y realmente tampoco ha cambiado mucho desde entonces). Si, el openoffice a veces se cierra, pero recupera el documento tal como estaba, y no verás a un funcionario usando las funciones que pueden hacer que se cierre. Pero lo más fuerte es que openoffice usa el formato odt, que es el estándar real actual recomendado por la propia administración, y MS Office NO.

En bases de datos una mayoría simple de Oracle con un 48%, que me parece bien, puesto que después de todo, se dedican a eso sin molestar a nadie, pero es que el sql server del cuasimonopolio mundial tiene nada menos que un 27%, cuando tenemos gratuitamente en algunos casos las bases libres Posgresql, MySQL, Firebird que son superiores a él. Y no me dirán aquí de dificultades de administración, que todas tienen ventanitas muy muy claras y sencillas.

Dentro de la desesperación que producen estos resultados, hay que fijarse en que la situación mejora, y que poco a poco estaremos todos más seguros.

Lazarus y freepascal, Delphi y turbopascal

Hay un gran lenguaje de programación que, debido a que cumple todos los requisitos para el aprendizaje de la programación en general, es el primero que se aprende en la carrera de informática, al menos hasta hace pocos años. Este es Pascal. Se utiliza poco, seguramente porque es bastante rígido, aunque esa rigidez es la que lo hace perfecto para programar limpiamente. Por ejemplo, el lenguaje C es tan flexible que pueden hacerse verdaderas guarradas con él. Hay hasta un concurso de quien puede hacer el programa más dificil de entender. Eso no puede ocurrir con Pascal, que es un lenguaje estructurado, y bien estructurado. Su derivado orientado a objetos, object pascal, también se utiliza ampliamente en entornos académicos con el entorno de desarrollo Delphi. De este entorno de Borland se han copiado ampliamente otras empresas, sobre todo una que os podéis imaginar. Ese .net que sospechoso es...

Tras esta introducción vamos al meollo del asunto. Borland sólo tiene versiones de Delphi para Windows, con lo que los programas hechos con Delphi sólo sirven para MS Windows. Se dice que funcionan bien con wine, pero eso es otro tema, y está sin confirmar. Hace unos años Borland sacó Kylix, que era Delphi para linux, pero actualmente está descatalogado. Al parecer fue un desastre, porque la intención no era prestar un gran entorno de desarrollo, sino hacer un parche para quedar bien. Ya existía entonces freepascal, que permite crear, al igual que turbopascal en msdos, programas para consola, pero en este caso totalmente portables de un sistema operativo a otro. Pero queremos más. Nos falta Delphi. Tenemos la solución: el proyecto Lazarus es como Delphi, pero libre, con lo que podemos programar en object pascal con ventanitas, componentes y tal. Próximamente se va a incluir en varias distribuciones, así que por ahora, la instalación hay que hacerla por consola. Está pendiente de inclusión en Debian y se incluirá en la próxima Ubuntu, Feisty.

Puedes acceder a su web aquí (el enlace se abre en otra ventana). Está bastante avanzado, con lo que dentro de poco todos los programas serán totalmente portables. Ahora lo son mientras no usen determinadas cosas que faltan por desarrollar, que al parecer son las partes más difíciles, pero los componentes ya funcionan perfectamente. Tiene un leve problemita, que usa las bibliotecas gtk1, así que su aspecto es un poco pobre, pero está en proceso el uso de las gtk2. Como todo en este mundo del código abierto, si te interesa o eres un gran programador de Pascal harto de MS Windows, puedes unirte al proyecto Lazarus.

14 enero 2007

Próximamente...

Hay artículos que requieren comprobaciones, imágenes y por tanto, requieren bastante tiempo, pero ahora no hay demasiado, así que tampoco hay imaginación ni tiempo para pensar en lo que puede ser más o menos útil. Estaría bien algo de participación, sobre todo por parte de los que venís de ubuntu-es.org, que supongo que buscáis ampliar información sobre cosas. En un momento dado puedo dar información sobre esas cosas, sabiendo qué cosas, y qué prioridades podría haber. De hecho sobre algunas aprendo sobre la marcha. Ahora mismo, lo siguiente está pendiente:
- Máquinas virtuales con vmware, xen y/o qemu+kvm. Esto promete ser bastante amplio.
- Configuración de la síntesis de midi (reproducción de archivos mid).
- Creación musical en un entorno Linux.
- Edición de subtítulos.
- Configurar SANE (escáneres en linux).
- Mover un sistema linux de un disco a otro.

Y quizá estas otras cosas:
- Instalación de programas.
- Un manual sobre GIMP.
- Manual sobre Inkscape.
- Configuración básica de Apache.
- Emulación de DOS.
- Algo de Wine (capa de compatibilidad con programas destinados a MS Windows).
- Facturación en un entorno linux.

¿Votaciones? ¿Ideas?

12 enero 2007

Lanzado el segundo CD de pruebas de Feisty

Hoy 12 de enero se ha lanzado la segunda alfa de Feisty, el cervatillo bullanguero, o como ellos lo llaman, el segundo rebaño (Herd 2) de la versión 7.04. No hay que instalarla en máquinas de uso, sólo debe usarse en máquinas de prueba. Sirve para informar a los desarrolladores de los errores que van saliendo, y avisar para que se puedan corregir lo antes posible. También sirve para ver cómo será y cómo va evolucionando esta nueva versión que promete grandes novedades. Ahora mismo tiene estas novedades (se abre en una ventana nueva). También puedes descargarla desde esa misma página.

Aunque no he probado el instalador, que al parecer tiene alguna mejora, he probado como va hasta ahora (actualizando periódicamente), y mientras la alfa 1 tenía bastantes fallos, esta parece que empieza a ser utilizable, aunque sigue teniendo fallos importantes. Antes había dependencias rotas, ahora ya no, pero el ordenador no se apaga.

11 enero 2007

Cámaras fotográficas

Otro tema fuera del tiesto, aunque está más relacionado. No voy a comentar la conexión de las cámaras digitales al ordenador. Bueno, un poco si, vale. En Ubuntu no hay generalmente problemas con las cámaras. No hay más que conectarla al puerto USB y se reconoce inmediatamente. Al parecer, en Edgy esto falla y hay que iniciar gtkam (instalándolo previamente porque ni está) que estará en Aplicaciones>Gráficos, añadir cámara o pulsar a examinar para que la encuentre. Después, sin problemas.

Ahora voy a lo que voy. Las cámaras analógicas actualmente tienen poco sentido. Hace poco se decía que la calidad de la película nunca la igualaría una cámara digital. Bueno, creo que se equivocaron. La resolución de algunos sensores superan la de algunas ópticas montadas. La película sigue teniendo un punto mejor, pero es compensable. En cámaras compactas ya no es lógico usar película, pues la máxima calidad no es un factor perseguido por este segmento. Donde alguno podría dudar es con las reflexivas, o réflex.

Hay una mala tendencia general en el comprador de productos electrónicos. Aquello de caballo grande, ande o no ande. En las cámaras, mucha gente cree que hay que comprar la que más megapíxeles tiene. Esto es un gran error. Generalmente nadie necesita más de 3 megapíxeles y existen cámaras compactas de más de 8. Tener más megapíxeles significa que hay que gastarse más en la tarjeta de memoria para que éstas puedan caber, y el hecho de ser más grandes significa que pueden imprimirse más grandes. Pero, ¿las imprimes grandes? Normalmente no. Con 4 megapíxeles puedes imprimir en A3 (el doble que un folio) cosa que el usuario medio no hace. Al mercado le interesa la carrera del megapíxel para que la gente compre, e incluso deseche cámaras perfectamente válidas por otras quizá incluso peores con mayor número de megapíxeles.

¿Que son los megapíxeles? La cantidad de puntos que tiene el sensor y por tanto, el tamaño que podrá tener la imagen.

¿Que es importante en una cámara digital? la calidad de la óptica y de la electrónica. Si te gastas 100 euros en una cámara de 8 megapíxeles no esperes la misma calidad que una que vale 500. Ni siquiera equivaldrá a la calidad de alguna de 4 de una buena marca.
Si no te importa nada el resultado de la foto, puedes incluso usar un móvil para hacer fotos. Esto a mi me parece una herejía, pero así es. Si quieres un resultado decente, ve a una marca de cámaras de las de toda la vida. Te va a costar más, pero sabes que lo que tienes es lo mejor. Además tienen extras que otras no tienen. La pantalla extraible al estilo de cámara de vídeo es algo a tener en cuenta para no ir como un bobo moviéndote con la compacta delante de la cara a cierta altura, y el visor electrónico puede ser un gran extra, para evitar totalmente lo anterior.

Si te gusta la fotografía, seguramente te interesará saber que cámaras réflex puedes comprarte, porque las compactas se te quedan cortas. Bueno, hay modelos de gran éxito, y si los compras no te equivocarás. Realmente, en réflex digitales no hay errores en la compra, puesto que todas son marcas de toda la vida, excepto una, de la que yo no me fío por mucha supuesta fama que tenga en otros productos. Lo mejor es una marca que haga el producto completo: Si fabrica ópticas, la cámara y su electrónica sabes que es totalmente fiable. No debería hacer publicidad gratuita, pero la descrita es Canon, marca de la que poseo una cámara. Cuando tienes Canon le tienes manía a Nikon y viceversa, así que... bueno, Nikon es igualmente recomendable, aunque sus sensores no son tan buenos. Hay otras marcas, como Olympus, con algún modelo más barato que cumple con lo que cualquier aficionado pueda necesitar, y algunas cosas muy interesantes, por lo que quizá sea la marca más recomendable. En objetivos, si se quiere calidad a buen precio y no gusta el incluido con la cámara, es mejor ir a marcas como Sigma, Tamron o Tokina, puesto que los de la marca de la cámara son carísimos, aunque se justifica en el caso de Canon por el estabilizador de imagen y motor supersónico de algunos modelos.

En fin, que no hay que perseguir al megapíxel, hay que fijarse en el resto de características y es recomendable ver comparativas (también en el caso de los objetivos). Hay muchos sitios en español y sobre todo en inglés. Si conoces mínimamente el inglés no tendrás problemas para entenderlas, puesto que normalmente muestran fotos comparativas. Un buen sitio donde ver comparativas y pruebas, y en español (está en otros muchos idiomas) es letsgodigital.org (se abre en nueva ventana). El sitio más destacado, aunque en inglés, es dpreview.com (se abre en nueva ventana). El enlace interesante será el de "review"(crítica, examen o lo comúnmente usado, prueba), después de todo, la web se llama pruebas de fotografía digital, y para que salgan todas, "more..." (más) aunque puede ser más cómodo elegir la marca de cámara en "camera".

Edito: Hay otro sitio bastante nuevo y muy bueno especializado en pruebas y comparativas de objetivos en español, www.digitalcamaralens.com

¿Diesel o gasolina?

Si, este tema no tiene nada que ver con la tónica general, pero puesto que acabo de pasar la ITV a un diésel, el tema me ha picado un poco. Va a ser un comentario ligero.

Estos últimos años ha habido una mayor venta de coches diésel. Digamos que ahora es justo al revés que hace 10 años. Entonces los diésel estaban destinados para lo que realmente valen, y eran minoría. Ahora los diésel son mayoría. ¿Por qué?

Hace precisamente unos 10 años es cuando hubo una supuesta razón para el cambio de tendencia. Bueno, realmente un poco más. No voy a hacer publicidad gratuita, a quien le suene, lo sabrá. Cierta marca sacó un motor turbodiésel para un conocido modelo de gran éxito. Ese éxito era debido a su modelo de gasolina con orientación deportiva, un modelo mítico del que siguen viviendo. Ese motor diésel era bastante bueno. Mayor potencia de la acostumbrada y bajo consumo. Si se hacía conducción deportiva, ese diésel no duraba lo que un diésel suele durar, pero la tendencia ya estaba iniciada. Es en la siguiente serie del modelo donde vino la revolución para los diésel: TDI. Con él se proponía la supuesta igualdad de reacciones de diesel y gasolina: falso. Otras marcas también evolucionaron sus diésel, pecando de problemas similares de resistencia del primer motor turbodiesel comentado. Estas marcas, debido a su política de precios, lanzaron definitivamente los motores diésel al público general. El grupo del TDI iba más al tema de calidad dentro de la gama de consumo. Posteriormente han seguido evolucionando, cada grupo por su lado, TDI y HDI, siendo más duraderos aparentemente los segundos. No hay más que ver los taxis. No voy a entrar en las características de cada uno porque no es lo que pretendo.

Ahora vamos a las diferencias entre los motores gasolina y diésel.
Los gasolina funcionan por explosión. Las bujías encienden la gasolina por medio de una chispa, lo que hace que estos motores tengan una reacción prácticamente inmediata al pisar el acelerador. Dan potencia hasta el límite del cuentarrevoluciones, cada vez más. De ahí viene lo de la estirada del gasolina.
Los diésel funcionan por combustión. Al arrancar el motor se calienta previamente el combustible en el motor para facilitar su inmediata inflamación al girar el motor de arranque, puesto que el gasóleo se autoenciende por la presión, sin necesidad de chispas. Su reacción es más lenta que los gasolina, pero su "fuerza" es mayor. Su potencia máxima se obtiene prácticamente desde el inicio del cuentarrevoluciones, perdiéndose relativamente a partir de cierto punto, por lo que es necesario acudir al cambio.
Los diésel consumen menos que los gasolina, pero son más caros por ser motores generalmente más grandes que sus equivalentes de gasolina. Los diésel están hechos para altos kilometrajes, o para gran exigencia (todoterrenos que realmente van al campo) y los gasolina para lo demás.

La ITV de un diésel cuesta el doble que un gasolina. Es de suponer que al comprar un coche lo vas a tener más de 5 años, y a partir de entonces la ITV es un factor a tener en cuenta. Lo que más pica es que a los diesel los torturan, acelerándolos hasta el corte de inyección, y lo peor es que, puesto que no dejan calentar el motor, lo hacen en condiciones peligrosas para su duración.

Los diésel gastan más neumáticos. Podéis fijaros comparando las ruedas delanteras de un diesel y un gasolina con kilometraje similar.

Conclusiones: ¿Eres un profesional del volante? necesitas un diésel porque vas a compensar rápidamente la diferencia de precio, y vas a ahorrar a la larga.
¿Lo usas sólo para ir al trabajo, a poca distancia, o para ir al campo el fin de semana? si compras un diésel estás tirando el dinero. Te has dejado convencer por la moda. Estás perdiendo alegría en la conducción y llenando de humo negro a los que vienen detrás de ti.

Finalmente decir que a mi me gustan ambos, pero hay que saber para que vale cada uno. La sensación del gasolina en plena estirada no la puede dar ningún diésel por mucha patada que tenga a 2500 rpm y ningún gasolina sube una pendiente como lo hace un diésel.

07 enero 2007

Ya se han ido los Reyes Magos....

Otro mágico día de Reyes ha pasado. Niños emocionados con montones de paquetes de regalos, y mayores disimulando no tener la misma emoción que aquéllos, pensando si realmente alguien ha aparecido por allí. Sorpresas y cosas esperadas.

Escribiendo esto es evidente que soy pro Reyes Magos y además estoy en contra de la plaga del gordo vestido de rojo. Papá Noël dans la France, Santa Claus más hacia el norte y en el Imperio. El personaje se debería llamar San Nicolás, al menos en España, donde ha tenido una tradición prácticamente nula, hasta ahora. De San Nicolas viene Nikolaus, que pasó a Santa Klaus. El tal individuo que circula por ahí basado en San Nicolas, que por cierto, sabed niños que es falso, parece ser que vestía originariamente de verde a partir de su invención por parte de un cura protestante, y Coca-Cola hizo que vistiera de rojo. Ahí se ve lo falso que es y que su única importancia es comercial. En el caso de España, es una tradición de otros importada por intereses de los comercios. Si puedo vender a saco para dos días en lugar de uno solo, ¿que más dan las tradiciones y el valor de mi cultura? el dinero es el dinero.

Con lo que molan los Reyes...

05 enero 2007

Crear un DVD con menús (con Ubuntu Edgy)

Seguramente alguna vez habréis querido haceros una copia de seguridad de algún DVD. Eso que es totalmente legal (e incomprensiblemente nos obligan a pagar un canon y nos tachan de piratas) podemos hacerlo usando k9copy, aunque a veces resulta más cómodo descargarlo con el amule.

Ahora pongamos que queréis haceros una recopilación de esos archivos que habéis descargado o creasteis en su momento, en un DVD. Si, sería fácil, copiar los archivos directamente, pero lo queremos hacer bonito y le pondremos menú.

Si tenemos unos cuantos archivos de vídeo en el formato que sea, divx, xvid, o cualquier otro, con la extensión que sea, primero los convertiremos a mpeg2, que es el formato que usan los DVD. Podría hacerse todo con el mismo programa, QDVDAuthor, pero puesto que al hacerlo me ha dado errores que me han resultado bastante incomprensibles, voy a comentar como hacerlo sin tener problemas. Para convertir, usamos DeVeDe por ejemplo. También puede usarse avidemux, pero el primero es más sencillo y está en español, y avidemux no.

Vamos a ver el funcionamiento básico de DeVeDe. Al iniciarlo nos muestra 4 botones para elegir el tipo de disco que queremos crear. Elegimos Video DVD en este caso.
Ahora nos muestra la pantalla principal del programa en la que tenemos dos listas, títulos y archivos, abajo la barra que indica cuánto queda por llenar y un par de opciones. La barra no parece medir muy bien, aunque hay que tener en cuenta que se basa en estimaciones. Para mi prueba se ha dado el caso que ni con el 150% llegaba al 100% real. No era demasiado contenido. Lo mejor es probar primero con un único archivo y ver lo que ocupa, y montárselo sabiendo eso. Títulos corresponde a los títulos o capítulos del DVD, las secciones hacia las que podemos saltar.

Pantalla principal de DeVeDe

Si creamos un DVD sin menús, por cada título pondremos un archivo de película en la lista de la derecha (En caso contrario podemos añadir todas en el primero) Creamos tantos títulos como archivos vayamos a añadir pulsando repetidamente en "añadir" de la lista título. Seleccionamos cada uno y pulsamos "añadir" en la lista de la derecha, lo que nos mostrará un dialogo con varias opciones. Primero seleccionar el archivo de la película con el botón de arriba. Al seleccionarla, nos mostrará información sobre ella inmediatamente debajo. Tasa de vídeo y de audio tendremos que modificarlas de acuerdo al tamaño que tengan las películas que vayamos a meter en el disco y el espacio que nos vaya quedando en él al añadir cada una. En avanzadas no es necesario que modifiquemos nada.

Una vez añadido todo, vamos a las 3 opciones de abajo. Está seleccionada la última, "Crear una imagen ISO". Con ésta grabaríamos directamente con cualquier programa de grabación a un DVD (sin menús, recordemos). La anterior, "Crear estructura del disco", nos dejaría creado el contenido del DVD con sus correspondientes directorios, que luego tendríamos que seleccionar para grabarlos.
La primera opción, "Únicamente convertir a MPEG", es la que seleccionaremos para el caso que nos ocupa, crear menús.
Pulsamos "siguiente" y nos preguntará dónde queremos guardar los archivos mpeg (o el DVD en su caso) y el nombre por el que comenzarán los archivos mpeg. Hecho esto, aceptamos y comenzará a codificar, cosa que puede tardar bastante tiempo, más de media hora. Evidentemente, depende del equipo que tengas.

Vamos a la siguiente fase: crear menús. Tenemos el programa QDVDAuthor. Por desgracia está en inglés, pero es sencillo. Es algo inestable y tiene varios errores que corregiremos fácilmente, pero id guardando cada vez que hagáis cambios por si el autoguardado no llega a tiempo.
Pantalla principal de Qdvdauthor

Vamos a empezar. Creamos nuevo proyecto. Nos pedirá un directorio temporal. Le ponemos un subdirectorio de donde tenemos almacenados los archivos, que crearemos para esto. Le damos a siguiente (next) y nos pregunta por el nombre del proyecto, nos indica la ruta que le escribimos antes, y abajo la ruta del DVD, que puede ser otro subdirectorio de donde estábamos. Si pulsáis browse para examinar, cuando aceptéis tened cuidado que no aparezca la barra / al final de todo, porque causa problemas. Le dais a acabar (finish). Ahora hay que ver si está instalado lo necesario. Y os preguntareis: ¿Para que están las dependencias? yo me pregunto lo mismo. Vamos al menú Herramientas (Tools) y elegimos Configurar (Setup). Elegimos la solapa Rutas (paths) y pulsamos en Examinar sistema (scan system). Lo que nos aparezca con fondo blanco lo tenemos instalado. Lo que no, hay que instalarlo, aunque todo no es necesario. Por ejemplo, no es necesario instalar movie-to-dvd, pcm2aiff, mctoolame y dvdrecord. Mas que nada porque no está en los repositorios y con lo demás nos bastamos. Hecho esto, por fin podemos empezar a crear menús.

Primero que nada añadimos las películas con el botón "add movie". Seleccionamos todas las que convertimos con DeVeDe (pulsando control mientras seleccionamos cada una) y aceptamos.
Nos saldrán fotogramas de cada una de las películas que hemos introducido. Ahora nos toca seleccionar cada una con el botón derecho, elegir propiedades (properties) y edit. Ahí comprobaremos que la relación de aspecto (aspect ratio) es correcta. Si el archivo corresponde a una película panorámica, deberá poner 16:9. Si es formato normal de televisión, deberá poner 4:3. Si pone lo contrario de lo esperado, deberemos cambiarlo para que no nos deforme la imagen. Si en "formato" pone NTSC en lugar de PAL, tendremos que sobreescribirlo y poner PAL, a no ser que uséis el otro formato, claro.

La verdad, explicar esto es más largo que hacerlo. Añadimos el fondo que pretendamos poner con "Add Background". Si le queremos poner sonido, lo mismo con "Add sound".
Si vamos a crear submenús (capítulos, sonido, etc), vamos al menú DVDAuthor y seleccionamos añadir menú (add menu). Ahora en la lista de objetos veremos Submenu 1, y tendremos una nueva solapa en la representación del menú. Los submenús se editan igual que el principal. Pulsamos en su solapa y podremos editarlo, añadiendo una imagen de fondo de la misma manera que antes.

Ahora añadimos el texto de los menús, sea en el principal o en los submenús. En el menú DVDmenu tenemos Añadir texto (add text). Esto nos transforma el puntero en una cruz, que tenemos que usar para enmarcar la zona del texto, y posteriormente ya podremos escribir en el dialogo que nos saldrá. Así vamos añadiendo las opciones que queramos. Para cambiarlo de sitio hay que arrastrarlo. Si le da por cambiar de forma, elegís el objeto con el botón derecho y pulsáis "matrix". Dejáis zoom a 1 y el resto a 0 y volverá a su forma normal.
Para los textos que tengan que ser opciones pulsaremos con el botón derecho en la lista de la izquierda sobre cada uno de los objetos que los representan y elegiremos "Define as button". Le damos un nombre descriptivo para no confundirnos, y donde dice "action" desplegaremos la de la derecha para elegir lo que necesitemos. Si esa opción inicia una de las películas, elegimos "Movie files" y justo debajo desplegaremos para elegir la película. Si esta opción despliega un submenú, lo seleccionaremos. Haremos lo mismo sobre cada botón creado.

Ya está hecho. Ahora vamos al menú DVDAuthor y elegimos crear DVD (create DVD). Nos mostrará las instrucciones que va a utilizar para crear el DVD. Hay que modificar algunas. Donde veamos que pone 48000 tenemos que quitarle los ceros y si vemos alguna doble barra // tenemos que dejar una sola /.
Bueno, ya parece que está. Pulsamos Aceptar (OK) y empezará a crear el DVD. Luego grabamos los directorios audio_ts y video_ts con el k3b y ya tenemos DVD con menús.

Ligero retoque

He ensanchado la zona del texto para mejorar la legibilidad. Esta página estaba pensada para verla con una resolución mínima de 800x600, pero eso hace que empeore la lectura, debido a la poca anchura existente. Puesto que esa resolución la usa una minoría ínfima, podría destinarla a 1024x768, pero no me parece bien. En caso de emergencia podría tenerse una resolución baja, y en un sitio de ayuda como pretende ser éste sólo faltaría que no hubiera manera de leerlo. Ahora sigue siendo útil para 800x600, pero no será visible la mitad del panel derecho. Un pequeño sacrificio por el bien común.

Por cierto, para escribir comentarios se pulsa sobre donde pone "X comentarios" y se escribe lo que queráis. No hay participación...

03 enero 2007

Monitores TFT

Como últimamente estoy buscando un monitor, me he dado cuenta que la mayoría de lo que existe en el mercado es, digamos, pésimo.

Primero comento que en calidad del color y contraste, los monitores de tubo o CRT, los de toda la vida, son los mejores. Aunque el plasma es lo que mejor contraste tiene, lo incluiría en un artículo sobre televisores, porque no pueden usarse en monitores. Normalmente un diseñador gráfico no tendrá más remedio que seguir usando los monitores de tubo. Yo mismo tengo uno sólo para comprobar la pureza del color. Los problemas que tienen ya los conocemos: parpadeo que agota la vista, radiación, alto consumo de energía, errores de geometría en los bordes, tamaño del tubo... pero como digo tienen un color excelente, y pueden usar cualquier resolución sin afectar en absoluto a la calidad de representación de la imagen.

Tenemos actualmente tres grupos de tecnologías para monitores de cristal líquido. Habrá más, pero esto es lo que hay ahora en el mercado:
TN
VA (MVA o PVA)
IPS
Lo común a todas ellas es su reducido tamaño puesto que son paneles de poco grosor, su bajo consumo, la ausencia de parpadeo, y la perfección en la presentación de la forma de las imágenes, sobre todo usando la interfaz digital. Un defecto es la mala representación de resoluciones que no son la nativa.

Un par de datos introductorios:
Velocidad.
Significa el tiempo que el monitor tarda en cambiar la imagen que está mostrando. Si tenemos un monitor de 8 ms significa que, en el caso mejor, tarda 8 milisegundos en sustituir la imagen que está mostrando por la imagen del siguiente fotograma. Si invertimos el valor para ver la posible equivalencia con un monitor de tubo, aunque no sea totalmente equivalente, tenemos que 8 ms son 125 Hz. Eso significa que es sobradamente rápido ¿Por qué hay entonces paneles de incluso 2 ms? porque esa velocidad normalmente es el caso mejor, y el peor puede llegar a ser un valor mucho más bajo. O sea, que si en cierto intervalo de colores la velocidad baja a 20 ms, tenemos una equivalente de 50Hz, velocidad insuficiente. Lo lógico es que dieran valores fiables para saber lo que uno compra realmente, pero en fin, así es el mercado.

Hay que tener en cuenta que los distintos tipos de paneles reaccionan de maneras totalmente distintas. Según los rangos de color, unos pueden ser más rápidos que otros aunque sus especificaciones digan lo contrario, pero en otros rangos pueden ser muchísimo mas lentos de lo esperado. Esto hace que puedan verse rastros y el efecto fantasma por muy rápido que sea el panel.

Número de colores.
Los colores se representan en las pantallas según la separación RGB (rojo, verde y azul) y cada uno se representa con 8 bit. Si sumas los tres, tienes los 24 bit de color que son igual a los 16777216 colores que dice tu tarjeta gráfica que es capaz de representar. Normalmente (quizá haya algún caso aislado) todos los monitores con panel TN (y alguno muy escondido MVA o PVA) representan los colores con únicamente 6 bit por color, con lo que sólo podemos tener 262144 colores. Los demás paneles son de 8 bit. Para intentar cubrir el número de colores que deberían mostrarse lo que hacen es ir saltando de 4 en 4 los colores. O sea, que el color 0 es el 0 y el color 1 será el 4. Los que hay entre medias se sacan realizando un punteado que el ojo no nota. Viendo un degradado de cerca podrás darte cuenta del invento. Como el último número es el 253, si cogemos 253x253x253 para RGB, tenemos los 16,2 millones de colores que ponen en las especificaciones.

Vamos ahora con los tipos:

TN
El 95% de los monitores que podemos encontrar en las tiendas son TN. Los monitores TN son los más rápidos, y eso es lo que se está vendiendo a la gente, la velocidad.

Tienen un ángulo de visión mediocre, llegando al punto de ver las esquinas de distinto color al esperado estando justo frente a él. Eso son detalles que uno nota cuando lleva mucho tiempo usándolos o sabe qué es lo que tiene que ver.

Su contraste es, en general, bajo. El contraste compara el blanco más claro con el negro más oscuro. Pueden verse monitores con valores de 700:1 que normalmente son muy optimistas. La realidad suele ser un valor inferior. Cierta marca que vende mucho está usando valores engañosos de 1500 o 2000:1 que se refieren a casos muy limitados, así que cuidado. Maniobras dudosas de mercado...

El problema de estos monitores, para empezar, es que no son capaces de representar correctamente el negro y los colores cercanos a él. Después, que el resto de colores no los representan fielmente. Y para acabar de arreglarlo, si ya el propio panel no es capaz de mostrar fielmente los colores, la electrónica tampoco le acompaña con el tema de los 6 bit comentado antes.

Quizá veas un colorido tremendo en los grandes almacenes donde está expuesto, pero compáralo con un monitor de tubo, y verás dónde queda ese colorido...

Por último, tenemos el tema de los píxeles muertos. Cada píxel tiene 3 subpíxeles, rojo, verde y azul y puede pasar que algún transistor se estropee. Si se estropea, tendremos un punto luminoso. Si se estropea uno rojo será un puntito rojizo, si es el verde será verdoso y si es azul, será azulado, porque se mezcla con las otras dos componentes que sí siguen funcionando. Si se estropean los tres, tendremos un bonito punto blanco. En el monitor que estoy usando tengo un subpíxel muerto, pero está en el borde superior, o sea, que ni lo veo. Lo estoy buscando ahora y no lo encuentro. No hay problema, y menos mal porque uno sólo no lo cubre la garantía. El problema sería si te toca en el centro de la pantalla...

IPS
Se crearon para solucionar los problemas del TN. Es decir, que este tipo de paneles podrían sustituir perfectamente a los de tubo. Tienen una excelente representación del color siendo todos de al menos 8 bit y unos ángulos de visión muy buenos. Si hay píxeles muertos, estarán muertos realmente, o sea, serán negros. Como no todo podía ser bueno, son bastante lentos. Su verdadero problema es... que son muy caros. Se destinan a los profesionales del diseño. Son muy difíciles de encontrar por ser tan caros y tener un público tan limitado. Lo normal es encargarlos a un distribuidor.

MVA o PVA
Pueden encontrarse en el mercado en un 4,5%. Se crearon para suplir los problemas de los dos anteriores. Tienen un contraste más alto que los TN, como mínimo de 1000:1, y su representación del negro es muy superior. Son algo más lentos que los TN pero más rápidos que los IPS, aunque actualmente casi es suficiente para cualquier tarea. Tienen una calidad de color algo superior, y a esto le ayuda que casi todos sean paneles de 8 bit. Este tipo de paneles queda justo en medio de las dos tecnologías anteriores por prestaciones y por precio, aunque este último está casi igualando a los TN. Los píxeles muertos son negros, al igual que en los IPS. Se espera que sustituyan a los TN por todas estas superiores características. Esperemos que sea pronto.

02 enero 2007

Verdades y Mentiras de Microsoft

Tras pensarme si poner un enlace he decidido copiar aquí el texto (es enormemente largo), puesto que un enlace nunca se sabe lo que va a durar tal cual. Es una amplia explicación sobre la realidad de Microsoft de lectura obligada. Quizá lo hayáis visto en otros lugares. Está bastante extendido. Todo ello puede confirmarse buscando por internet y/o accediendo a las fuentes recomendadas.
Hay una película, Piratas de Silicon Valley, que muestra una parte de la historia, aunque bastante resumida.

"
Verdades y Mentiras de Microsoft
Javier Smaldone, 05/02/2004 (13:16).
Un conocido refrán anónimo que circula por Internet comienza diciendo: "Microsoft no es la respuesta. Microsoft es la pregunta...". Este texto refleja algunos aspectos no siempre divulgados masivamente sobre Bill Gates, Microsoft, sus productos, políticas y manejos; en la búsqueda de una respuesta al interrogante planteado.

MOTIVACIÓN DE ESTE ARTÍCULO
Muchas son las historias que se han contado alrededor de Bill Gates y Microsoft. En la mayoría de ellas, las que el común de la gente conoce y las que difunden los medios masivos de comunicación, Gates aparece como un genio de la informática y su empresa, Microsoft, como la responsable del avance de la computación personal (y hasta de Internet) en las últimas dos décadas. Poco se conoce, a nivel popular, sobre el verdadero origen de este imperio y sobre el efecto que han ocasionado sobre la industria y la tecnología informática las estrategias llevadas adelante por Microsoft.

En Internet es común encontrar sitios en contra de Microsoft y Bill Gates. La mayoría enfocan su crítica desde lo técnico: apuntando a la baja calidad de sus productos, exponiendo sus gruesas fallas y notables carencias, comparando a Windows con otros sistemas operativos mucho más estables, eficientes y seguros. Otros alertan sobre los peligros que encierra la posición monopólica que ocupa Microsoft, y las políticas implementadas por esta empresa para expandir su control a otras áreas, más allá de la computación personal.

Este breve artículo persigue varios objetivos:

* Desmitificar algunas historias que forman parte del folclore, como el origen de Bill Gates y las supuestas invenciones que se le atribuyen.
* Explicar, muy brevemente, las razones que han llevado a Microsoft a su posición actual de dominio del mercado de la computación personal.
* Mostrar los riesgos y peligros que implican las maniobras realizadas por Microsoft.

Obviamente no se trata de un análisis exhaustivo ni mucho menos. En la sección de Referencias se incluye un listado de artículos y libros que presentan argumentos y casos concretos de una forma mucho más profunda y extensa.

MITOS Y VERDADES SOBRE BILL GATES
El chico de las computadoras
Su verdadero nombre es William Henry Gates III y, como el mismo parece indicarlo, proviene de una acaudalada familia de Seattle [1]. La historia que siempre se ha contado acerca de sus comienzos, jugando con su pequeña computadora personal, lejos está de la realidad. Gates fue educado en una de las escuelas más costosas (la matrícula costaba aproximadamente el triple que la de la Universidad de Harvard) y, cuando junto con un grupo de compañeros quiso empezar a jugar con computadoras, sus madres les alquilaron una PDP-10 (la misma computadora que utilizaban los investigadores de Stanford y el MIT).

El joven visionario que revolucionó la informática
Otro mito bastante común es que Gates creó el lenguaje Basic. Nada más lejos de la verdad. Basic fue creado por John Kemeny y Thomas Kurtz en 1964. Lo que Gates y Paul Allen hicieron fue crear una versión del intérprete de dicho lenguaje para computadoras personales Altair (logro que es ampliamente superado por cualquier alumno de un curso universitario de compiladores). Este intérprete es la única pieza de código conocida escrita, a medias, por Bill Gates. Más adelante veremos que muchas otras invenciones que se le atribuyen tampoco fueron obra suya.

MITOS Y VERDADES SOBRE MICROSOFT
Los comienzos
Microsoft fue fundada por Bill Gates y Paul Allen. Inicialmente cada uno de ellos poseía el 50% de la compañía, aunque luego Gates fue tomando progresivamente mayor control sobre la misma. El primer gran acierto de Microsoft, determinante de su futuro éxito, fue la venta del MS-DOS a la empresa IBM. El DOS tampoco fue diseñado ni desarrollado por Microsoft, sino que fue adquirido a una pequeña empresa llamada Seattle Computer. Su autor original lo había bautizado QDOS, siglas de "Quick and Dirty Operating System" (sistema operativo rápido y sucio). Es reconocido por todos que la calidad del diseño y la implementación del MS-DOS en sus primeras versiones era muy pobre. La decisión de IBM de incorporarlo como el sistema operativo de sus PCs fue motivada por una cuestión de competencia con la empresa Digital, que podía proveer un producto muy superior, y porque IBM realmente no dio mucha importancia a la línea de computadoras personales. Lo que llama poderosamente la atención fue que IBM no comprara el MS-DOS sino que decidiera pagar a Microsoft un canon por cada copia que se vendiera junto con una IBM-PC. Lo que pocas veces se ha dicho es que por esos tiempos la madre de Gates, Mary Maxwell, era directiva de la empresa United Way conjuntamente con el CEO de IBM, John Opel [2,1].

Windows
Debemos comenzar aclarando, para quienes hayan creído las ridículas historias que se cuentan en algunos medios de comunicación, que Microsoft no inventó los entornos gráficos, ni las ventanas, ni el ratón. Todo esto fue desarrollado por la empresa Xerox en el año 1973 [3] y luego copiado por Apple a fines de los ´70 y Microsoft ya entrados los ´80.

Windows fue anunciado el 10 de noviembre de 1983. La primera versión (1.0) apareció el 20 de noviembre de 1985, en tanto que la primera versión realmente utilizable (3.0) salió al mercado el 22 de mayo de 1990 [4]. Toda una muestra de la "eficiencia" de la empresa. Recordemos que estamos hablando de un producto que proveía una funcionalidad equivalente a las que incorporaba la Apple Macintosh en 1984 (cuya estabilidad y robustez eran ampliamente superiores). La única "virtud" de Windows consistió en ejecutarse sobre MS-DOS en computadoras compatibles con la IBM-PC.

Microsoft y la Internet
Muchos han llegado a creer que Microsoft inventó la web o, peor aún, que la Internet es una idea brillante de Bill Gates.

La Internet, como tal, data aproximadamente de 1986 (aunque se originó desde fines de los ´60). La World Wide Web (junto con los primeros navegadores) surgió en el año 1991. Tiempo después, Microsoft compró un navegador llamado Mosaic a la empresa Spyglass, para luego transformarlo en el hoy conocido Internet Explorer. La primera versión de Internet Explorer apareció en agosto de 1995.

La verdad es que el "visionario" Gates no vio venir a Internet. Tardíamente, junto con la aparición de Windows 95, intentó montar una red paralela (e independiente) llamada "The Microsoft Network" (muchos recordarán el inútil iconito sobre el escritorio) que fracasó de forma rotunda. Luego de este fracaso, Microsoft compró varias empresas relacionadas con Internet, entre ellas uno de los proveedores de correo web más importantes: HotMail. En torno a este y otros servicios, montó finalmente su sitio web llamado... ¡Microsoft Network! (actualmente más conocida como MSN).

Los protocolos, estándares y normas de la Internet están documentadas mediante las llamadas RFCs (Request For Comments). A la fecha (enero de 2003) existen 3454 RFCs. Solamente 8 de ellas han sido elaboradas por empleados de Microsoft (la más antigua data de marzo de 1997 y 7 se refieren exclusivamente a productos de esta empresa), lo que representa un 0,23% del total [5]. En base a esto podemos decir que debemos a Microsoft el 0,23% del avance tecnológico de Internet.

MICROSOFT Y EL AVANCE DE LA INFORMÁTICA
Muchos reconocen a Microsoft el mérito de haber acercado la informática a los usuarios comunes, de haber producido el avance tecnológico que facilitó el acceso a las computadoras personales. La realidad muestra todo lo contrario: no sólo no es un mérito de Microsoft sino que esta empresa provocó, en muchos aspectos, un atraso tecnológico considerable.

Durante la década del 80, el único producto de Microsoft que sobresalió fue el MS-DOS (llamado PC-DOS en la versión distribuida por IBM). El éxito del MS-DOS no radicó en sus características técnicas sino en que inicialmente fue de la mano con el IBM-PC, cuya arquitectura de hardware fue copiada por muchos otros fabricantes, lo que dio lugar a la proliferación de equipos "compatibles". Para dichos fabricantes de hardware, fue mucho más simple distribuir sus equipos acompañados del MS-DOS que desarrollar un nuevo producto similar (lo que aseguraba la compatibilidad también a nivel de software). Simultáneamente aparecieron otros sistemas operativos de calidad y diseño muy superior, pero ligados a arquitecturas de hardware que no fueron tan exitosas (un ejemplo es el ya citado Apple Macintosh).

A fines de los ´80 apareció el DR-DOS, de la empresa Digital Research, cuyas características técnicas eran muy superiores al MS-DOS (aunque, lamentablemente, debía seguir el mismo diseño por cuestiones de compatibilidad). La versión 6 de DR-DOS llegó a tener un gran volumen de ventas hasta que Microsoft liberó la versión 3.1 de su sistema Windows. Curiosamente, y aunque el resto de las aplicaciones DOS funcionaban correctamente, Windows 3.1 fallaba al ejecutarse sobre DR-DOS. Esto motivó un juicio que continúa actualmente.

La década de los ´90 comenzó con un dominio total de Microsoft en el área de los sistemas operativos de computadoras personales, con MS-DOS y Windows 3.1. Ya en esta época comenzaron a aparecer alternativas: versiones de Unix para sistemas 386 (una de las cuales pertenecía a Microsoft) y el OS/2 de la empresa IBM. Los principales inconvenientes que tuvieron estos productos para penetrar en el mercado fueron la falta de compatibilidad con el software existente (el diseño de estos sistemas era muy diferente al de MS-DOS/Windows) y el control del mercado que ejercía Microsoft. Un hecho notable es que, ante el avance de los sistemas Unix, Microsoft decidiera terminar la producción de su producto compatible con este sistema operativo (llamado Xenix). Con respecto a este tema, detrás de cada producto exitoso de Microsoft hay un par de historias oscuras en donde aparecen recurrentemente las palabras "juicio", "robo", "espionaje", "copia". Es innumerable la cantidad de productos innovadores y de gran nivel técnico que surgieron a través de los años y que fueron destruidos de alguna forma por Microsoft (un mecanismo muy utilizado para esto fue el de comprar para luego descatalogar). El análisis detallado de estos casos extendería este texto más allá de lo razonable (para más referencias sobre este tema, puede consultar [6]).

También es notable como Microsoft pretende introducir cada innovación en sus productos como un gran avance tecnológico. Lo hizo, por ejemplo, con sus publicitadas DLLs (dynamic loaded libraries) en Windows (cuando ya existían en Unix desde hacía mucho tiempo), la multitarea prioritaria en Windows 95 (ya existente en sistemas implementados en los ´60) y más recientemente con la posibilidad de administrar límites de espacio por usuario en Windows 2000 (algo que muchos sistemas operativos permiten hacer desde hace varias décadas) y el soporte de "journaling" en NTFS (una característica que permite mantener la integridad del sistema de archivos ante una caída del sistema, y que está presente en muchos sistemas operativos desde hace más de una década).

LA CALIDAD DE LOS PRODUCTOS MICROSOFT
Mucha gente cree que es común que una computadora se cuelgue cada tanto. Hasta ha llegado a parecer normal que un virus informático destruya todo el contenido de un disco rígido y que ese virus pueda llegar por cualquier medio y ante la mínima falta de precaución. Han convencido a muchos de que la única forma de evitar eso es mediante un antivirus siempre actualizado (y que Microsoft no provee), y si el antivirus falla... el único culpable del desastre es el malvado autor del virus (por lo general, un adolescente con escasos conocimientos de informática). Es moneda corriente pensar en actualizar el software (como si tuviera un plazo de vencimiento), y rara vez se ve alguna mejora real luego de las actualizaciones. Pareciera normal que un programa sobrepase los 100 Mb de tamaño y que requiera del último procesador y cantidades enormes de memoria.

Estas ideas, con las que la mayoría de la gente que utiliza computadoras con Windows convive diariamente, han sido el resultado de la "evolución de la tecnología" informática de la última década. Esto es lo que Microsoft ha vendido mejor aún que sus productos, hasta el extremo que muchos profesionales las han asumido como moneda corriente [7].

Soluciones a errores groseros en los programas han sido "vendidos" por Microsoft como grandes avances a través de su historia. Cuando una nueva versión de Windows se cuelga una vez por semana en vez de dos, el mensaje es que "ahora es mucho más estable". Una anécdota muy interesante es lo ocurrido en las primeras versiones de la hoja de cálculo Microsoft Excel. Ocurre que dicho programa era incapaz de leer archivos generados por versiones en otros idiomas dado que, al guardar una hoja como un archivo, almacenaba los nombres de las funciones utilizadas (la función para sumar en la versión en español era "suma", en tanto que en la versión en inglés era "sum"). Al mismo tiempo, otros programas similares como Quattro Pro no tenían este inconveniente: en vez del nombre de la función, almacenaban un código numérico que luego era traducido al nombre correspondiente de acuerdo al idioma. Esto es algo que se enseña en cualquier curso inicial de programación, pero los programadores de Microsoft no supieron aplicar una idea tan básica. Al salir al mercado una nueva versión de Excel, en la que se corrigió el notable defecto, la publicidad lo remarcaba como gran mejora: ahora se podía abrir documentos generados por versiones en idiomas diferentes. Claro que aquellos usuarios que quisieran acceder a la nueva versión para salvar la ridícula limitación de la anterior, debían pagar nuevamente la licencia (quizás con un "ventajoso" descuento por actualización) [6].
LAS PRÁCTICAS DUDOSAS DE MICROSOFT
Competencia desleal
Existen varios casos documentados (y algunos que han llegado hasta la justicia) en que se sospecha que Microsoft ha alterado el código de sus sistemas operativos para que los programas de la competencia se ejecuten más lentamente o con errores [6]. Microsoft ha sido llevado a la justicia varias veces (y en algunas oportunidades con fallos en su contra) por violaciones de la propiedad intelectual.

También es una práctica corriente que Microsoft, aprovechando su excelente situación económico-financiera, compre a aquellas pequeñas empresas que se interponen en su camino al desarrollar productos que pudieran competir con los suyos.

Rompiendo las normas
Una táctica bastante utilizada por Microsoft para lograr el dominio del mercado es la conocida como "Embrace and Extend" (adherir y extender). La misma consiste en extender ciertos protocolos o normas más allá de los estándares de manera arbitraria y unilateral, para que luego sólo los productos que los implementen de la misma manera puedan interoperar de forma correcta. Sobran ejemplos de este tipo de práctica (la implementación de SMTP de Microsoft Exchange, la alteración a HTTP en Internet Information Server, entre otras), pero la más notable quizás sea la que derivó en el juicio que Sun Microsystems inició a Microsoft por haber extendido la especificación de su lenguaje Java violando las condiciones de su licencia, que permite a cualquiera implementar un compilador de dicho lenguaje, pero sin apartarse de dicha especificación. El objetivo perseguido por Microsoft era que los programas Java generados con su entorno de desarrollo J++ solamente pudieran ejecutarse sobre Windows, siendo que Java fue diseñado como un lenguaje que permitiera el desarrollo de aplicaciones portables entre distintas plataformas (algo que, evidentemente, no le conviene). Al fallar este intento, Microsoft tomó la decisión de no incluir soporte para Java en su nuevo sistema operativo: Windows XP.

Formatos cerrados y cambiantes
Los formatos en los que se almacena la información han sido utilizados históricamente por Microsoft con dos objetivos:

1. Imposibilitar la interoperabilidad con programas "no-Microsoft".
2. Obligar a los usuarios a actualizarse a nuevas versiones.

Esto ocurre porque dichos formatos son "cerrados" y no están públicamente documentados. Esto significa que solamente Microsoft los conoce y es el único que puede realizar un programa que almacene o acceda a información en tales formatos. El tener absoluto control sobre el formato, permite a Microsoft cambiarlo a su antojo. Es bastante común que aplicaciones como Microsoft Word utilicen nuevas formas de codificar la información en archivos .DOC (siempre con la promesa de nuevas características, pero que técnicamente no es justificado), lo que tiene como consecuencia directa que los archivos generados por la nueva versión no pueden ser abiertos con versiones anteriores (aunque se provee de una forma de almacenar los datos de manera compatible, requiere de ciertos pasos adicionales). Esto produce que paulatinamente, ante la circulación de archivos en el nuevo formato, los usuarios deban ir migrando (con el consecuente costo) aunque no necesiten las "nuevas características" (¿alguien usa funciones de Word del Office XP que no estuvieran en el Word del Office 95?). Lo que logra Microsoft a través de esto es limitar la posibilidad de elección de los usuarios que quedan atrapados dentro de este verdadero círculo vicioso.

Microsoft y los fabricantes de hardware
Debido a la posición monopólica en la que se encuentra, Microsoft puede ejercer gran presión sobre los fabricantes de hardware para computadoras personales. Dicha presión se traduce, por ejemplo, en la prohibición de vender equipos con otros sistemas operativos instalados, so pena de no brindar descuentos en la venta de licencias de Windows u Office a dicho vendedor. Ningún fabricante de computadoras personales osaría enfrentarse a Microsoft y perder por esto la posibilidad de ofrecer sus equipos con Windows preinstalado (y a un precio menor que el de venta al público). Esto ha llevado a que, actualmente, sea muy difícil poder adquirir una computadora de marca reconocida sin que en el precio esté incluido el costo de, al menos, una licencia de alguna versión de Windows (aunque uno no desee usar este producto) [7].

De la misma manera, se ha llegado al extremo de que los responsables de brindar el servicio de soporte técnico de las computadoras equipadas con Windows es el propio fabricante de las mismas. Esto es ridículo porque dicho fabricante no posee los medios (documentación interna, código fuente, etc.) para poder solucionar problemas ni corregir errores en el programa. Nuevamente, los fabricantes deben aceptar estas condiciones para seguir recibiendo un "trato preferencial" por parte de Microsoft. Con la llegada de Windows XP se ha alcanzado un nivel de dependencia aún mayor: debido a las nuevas "funciones de seguridad" de Windows XP (que no han impedido que un solo virus deje de funcionar bajo esta nueva versión) los drivers o controladores de dispositivos deben ser "certificados" por Microsoft para poder instalarse en el sistema. Esto obliga nuevamente a los fabricantes de Hardware a mantener "buenas relaciones" con la empresa, agregando otro mecanismo de presión. Microsoft, mentiras y... "vapor".

El término "vaporware" se utiliza normalmente para referirse a un producto que es anunciado por una empresa, cuando realmente no existe (o no estará disponible en los plazos prometidos). El objetivo de esta estrategia, utilizada generalmente por empresas que se encuentran en una situación de dominio del mercado, es desalentar a su competencia y crear una mezcla de inquietud, expectativa y esperanza en sus usuarios. Microsoft ha recurrido muchas veces a este recurso. Ya hemos hablado de los siete años que se tardó desde el anuncio oficial de Windows hasta su primera versión realmente utilizable. Un caso similar se ha dado con Windows 95 (anunciado como Windows 4 en julio de 1992 y liberado en agosto de 1995) y con Windows 2000 (cuya primera versión beta fue lanzada en septiembre de 1997, bajo el nombre de Windows NT 5, y que apareció finalmente en febrero del 2000). En todos estos casos se realizaron promesas de supuestas funcionalidades y mejoras que a la postre no se cumplieron. En algunos casos se lanzaron a la venta productos incompletos, como ocurrió con Windows NT 4, que comenzó a ser realmente utilizable luego del llamado "Service Pack 3", liberado un año después de comenzada su comercialización [4].

BILL GATES EL FILÁNTROPO
Los medios masivos de comunicación suelen mostrar a Bill Gates realizando donaciones de software y pronunciando discursos grandilocuentes sobre los esfuerzos de Microsoft para salvar el atraso tecnológico de los países subdesarrollados. Dichas donaciones, cuyos montos se miden en varios millones de dólares, no son reales. El supuesto valor se calcula teniendo en cuenta el costo de las licencias en el mercado, pero la realidad es que a Microsoft le representan un costo casi nulo (apenas el de duplicación de los CD-ROMs). De esta forma la empresa se asegura su crecimiento, sumando una buena cantidad de usuarios de sus productos a un costo mucho menor que el que hubiera significado una campaña publicitaria, sin correr ningún riesgo y por si fuera poco... ¡obteniendo excelente publicidad a cambio! En otros casos dichas "donaciones" tienen otra connotación. Recientemente Gates, a través de la Bill & Melinda Gates Foundation, realizó una serie de donaciones en la India para la lucha contra el SIDA [8]. Esto ocurre simultáneamente con una serie de negociaciones y estudios realizados por el gobierno indio, con el objetivo de promover el desarrollo de Software Libre en dicho país [9]. No debemos dejar de tener en cuenta que este supuesto filántropo posee (a enero de 2003) una fortuna personal de 61.000 millones de dólares, lo que equivale a 9,33 dólares por cada habitante de este planeta [10].

EL FUTURO
El futuro parece, a la vez, alentador y aterrador. Por un lado, el constante avance del Software Libre parece haber puesto un freno a la voraz expansión de Microsoft. Finalmente, después de muchos años de dominio absoluto, aparece un contrincante al que Microsoft parece temer [11]. Hasta ahora sus intentos por detener el crecimiento del Software Libre han sido inútiles, dejando más de una vez en evidencia sus contradicciones y exponiendo sus limitaciones para competir con un modelo que no se ajusta a sus esquemas (de poco sirve su abultado patrimonio para competir con un movimiento basado en desarrollos comunitarios, totalmente descentralizado y fuera de su esfera de poder).

Por otra parte, aparecen en el horizonte amenazas como el intento de creación de una plataforma de computación denominada TCPA (Trusted Computing Platform Alliance) [12], que plantea un modelo en el cual las computadoras son dominadas por las empresas y ya no por los usuarios, pudiendo estas restringir y monitorizar el acceso a la información. Este tipo de iniciativas nos pone a un paso de la espantosa situación planteada por Richard Stallman en su cuento "El derecho a leer" [13]. Un análisis muy completo del rumbo que intenta marcar Microsoft puede encontrarse en [14].

Afortunadamente un gran número de personas en todo el mundo, agrupadas en organizaciones de distinto tipo, que pelean para detener el avance de este tipo de peligros y que apuestan al surgimiento y la cristalización de nuevas alternativas, hacen que el futuro aparezca más como una oportunidad de cambio que como la consolidación de las posiciones que empresas como Microsoft han construido durante estos últimos años.

CONCLUSIONES
Mi opinión personal, teniendo en cuenta los puntos planteados en el presente texto (y muchos otros que no he incluido porque escapan a mis posibilidades) es que Microsoft representa una seria amenaza para el desarrollo de la informática y, peor aún, para el libre desenvolvimiento en el mundo del futuro, cada vez más ligado a las tecnologías de la información. Debemos tomar consciencia de que no se trata solamente de una cuestión técnica, sino que hay mucho más en juego.

Una clave para el establecimiento del monopolio que Bill Gates ha logrado a través de estos últimos veinticinco años es la gran desinformación (y en muchos casos desinterés) existente, la que le ha permitido mediante campañas de marketing muy efectivas, lograr que el común de la gente y muchos profesionales de la disciplina tengan una imagen totalmente distorsionada sobre los objetivos de esta empresa y su verdadero aporte a la tecnología informática.

Quienes producen los verdaderos avances son aquellos que trabajan para la evolución de la ciencia y la tecnología, no quienes intentan por cualquier medio imponer sus productos, destruyendo los avances, corrompiendo los estándares, robando las ideas, destruyendo a los posibles competidores. Por todo esto, yo ya encontré una respuesta a la pregunta.

¿Microsoft? No, gracias.

Copyright Copyright (c) 2003 Javier Smaldone

Se garantiza el permiso para copiar, distribuir y/o modificar este documento bajo los términos de la Licencia de Documentación Libre GNU, versión 1.2 (GNU Free Documentation License, Version 1.2) o cualquier otra versión posterior publicada por la Free Software Foundation; este documento se presenta sin Secciones Invariables (no Invariant Sections), sin Textos de Tapa (no Front-Cover Texts) y sin Textos de Contratapa (no Back-Cover Texts).

ENLACES RELACIONADOS
Referencias

1

"How to Become As Rich As Bill Gates". Philip Greenspun. http://philip.greenspun.com/bg/
2
"Accounting genius of Microsoft". http://student.umpi.maine.edu/edwardp/articles/microsoft.html
3
"The Xerox Alto Mouse". http://www.netclique.net/oldmouse/Xerox/Alto.html
4

"Windows History". Éric Lévénez. http://www.levenez.com/windows/
5
RFC Editor. http://www.rfc-editor.org
6
"Hijacking the world: The dark side of Microsoft". Roberto Di
Cosmo. http://www.dicosmo.org

7
"Trampa en el Cyberespacio". Roberto Di Cosmo. http://www.dicosmo.org/Piege/PiegeES.html
8
"Gates Foundation Announces $100 Million HIV/ AIDS Prevention
Effort in India". http://www.gatesfoundation.org/globalhealth/hivaidstb/hivaids/announcements/announcement-021111.htm
9
"Govt move on to let in Linux". The Economic Times (India Times).
http://economictimes.indiatimes.com/cms.dll/html/comp/articleshow?artid=32354337&sType=1

10
"Bill Gates Personal Wealth Clock". http://philip.greenspun.com/WealthClockIntl
11
The Hallowen Documents. http://www.opensource.org/halloween/
12
"Preguntas Frecuentes sobre TCPA y Palladium". Ross Anderson.
http://bulmalug.net/body.phtml?nIdNoticia=1398

13
"El derecho a leer". Richard Stallman. http://www.gnu.org/philosophy/right-to-read.es.html
14
``Windows XP muestra la dirección que Microsoft está tomando''.
Michael Jennings. http://www.hevanet.com/peace/microsoft-es.htm
"
Os agradecería que si tenéis más información que añadir o hubiera algún dato incorrecto, lo comentárais. El artículo original está aquí (se abre en una nueva ventana). El autor dice que piensa hacer una reedición para clarificar cosas que no están suficientemente explicadas.
Si hay algún forofo que siente que esto le toca el pan, que no venga a hacerse publicidad para ver si alguien le contrata como ya ha pasado. He tenido que eliminar sus comentarios por eso y por su falta de modales y educación.

01 enero 2007

Particiones para instalar linux

Si hay un tema que pueda decirse que es el más preguntado en los foros sobre linux, sin duda es éste: ¿Que particiones necesita linux? ¿que tamaños tienen que tener las particiones?
La respuesta es fácil y normalmente la respuesta suele estar en esos mismos foros. Pero el problema de los foros es que la información está desperdigada.

En Línux (GNU/Linux) necesitamos al menos una partición. Cada sistema operativo usa su sistema de archivos, así que para instalar Linux necesitamos una partición exclusiva para él. Suele ser de tipo ext3 o ReiserFS, aunque en un futuro próximo se impondrá ext4.

Realmente siempre usamos al menos dos particiones, por una simple cuestión de rendimiento. Esa segunda partición es la de intercambio. En otros sistemas operativos se usa un fichero para la memoria virtual (la memoria que se usa cuando la RAM se acaba, simplificando mucho), pero crear el fichero con una forma de asignación totalmente distinta a la memoria, y sobre la marcha, produce fragmentación (sobre todo en el sistema operativo más usado), y todo ello se traduce en un menor rendimiento. En linux usaremos una partición específica del tipo swap para intercambio (aunque también puede usarse un fichero), con un rendimiento óptimo. El tamaño generalmente ha sido del doble de la memoria física (la RAM), pero a partir de 512 MB se considera que es un desperdicio de espacio. Incluso se dice que no debe ser de más de ese tamaño. Hay razones para considerar que la regla debe seguir así, por las características de hibernación y suspensión, que pueden usar el intercambio para guardar la memoria al desactivarla, pero normalmente con usar el mismo tamaño que la RAM es suficiente incluso usando dichas características.

En general es recomendable usar tres particiones por cuestiones de seguridad y fiabilidad. El crear más particiones lo que significa es que separamos partes del sistema (directorios) en particiones, por lo que serán independientes, y en caso de algún error (comúnmente humano) o saturación, tendremos lo demás a salvo. Entonces tendremos lo siguiente:
Partición del sistema /
Partición de intercambio
Partición de los usuarios /home

¿Que tamaños hay que dar a esas particiones?
La del sistema es raro que supere los 6Gb, así que éste es un buen tamaño para usar. En caso de instalar aplicaciones propietarias (por ejemplo, juegos comerciales) en sistemas con varios usuarios, posiblemente éstas se instalen en la partición del sistema, así que quizá sea mejor usar 15Gb para no quedarse corto. De todas maneras éstas pueden instalarse en la partición de los usuarios, que veremos ahora.
La partición de los usuarios es la partición que contendrá los directorios de los usuarios, ( /home/el64 ) por tanto todos sus datos, el contenido de su escritorio, sus configuraciones, etc. Esta es la partición que mayor tamaño debe tener, sobre todo si almacenamos películas (por ejemplo, extraídas de DVD). Ésta ocupará el resto del disco.

Pueden crearse aun más particiones. La partición extra más común, al menos hasta hace pocos años "gracias" a lilo, hoy en desuso, es la del arranque ( /boot). Contiene el núcleo del sistema (linux) y los archivos de configuración de éste y del cargador grub. Un tamaño de unos simples 20 megas es suficiente. Si le das 80 tampoco pasa nada. Entonces una configuración general podría ser esta (exactamente por este orden):

Arranque /boot (50Mb)
Sistema / (>5Gb)
Intercambio (= memoria RAM o hasta el doble de ésta)
Usuarios /home (resto del disco)


Si tienes un servidor, tienes alguna necesidad especial, o simplemente eres un maniático, puedes querer crear aun más particiones. Por ejemplo para /usr, directorio donde se encuentran casi todos los programas, archivos compartibles(pero no modificables) entre varios servidores, lo que llega a ser casi todo el sistema. Para el caso de un servidor es recomendable crear una partición para /var, directorio que varía su tamaño enormemente en ese entorno; el crear esta partición protegería a las demás de quedarse sin espacio.

Un caso más relacionado con rendimiento puro (sobre todo para profesionales del vídeo) podría ser crear una partición con un sistema de ficheros que tuviera un mejor rendimiento para el caso de almacenaje de ficheros grandes, como el XFS, dado que ext3, aun no teniendo ningún tipo de problema con estos ficheros, está orientado a tener mayor velocidad con ficheros pequeños. Podría ser algo así como /home/el64/DVD, o en cualquier otro lugar. Las particiones se pueden montar como se quiera, siempre con respeto a la estructura de directorios de linux.

Para ver como se tratan las particiones en linux, mira este otro artículo.