Entradas

El software pirata nos afecta a todos (y para mal, por cierto)

El software pirata nos afecta a todos (y para mal, por cierto)Puede que a esta tendencia también colabore, de alguna forma, la casi imposibilidad manifiesta de encontrar en el mercado ordenadores que no vengan con una determinada y conocida plataforma tecnológica preinstalada de serie, a pesar de la opinión de los expertos, que hablan de abrir el mercado a otras alternativas. Lo que colabora de forma decisiva a un monopolio de facto y a una práctica “monocultura” informática, en empresas, hogares y Administraciones Públicas. En esta situación, que algunos consideramos cuanto menos dudosa cara a los consumidores, puede que muchos usuarios piensen, equivocadamente por cierto, que “ya que tengo la licencia de este sistema operativo y la he pagado casi obligatoriamente, incluso dos veces, si quiero hacer el downgrade desde Vista a XP, intentaré rentabilizarla al máximo”.

Es posible, que con este falaz argumento en mente, los usuarios deseen atiborrar su flamante ordenador, como enfermizos Diógenes Digitales, de cientos de programas privativos e ilegales, especialmente diseñados para dicho sistema operativo mayoritario, los necesiten, o no los necesiten realmente para su trabajo. Lo curioso, es que en muchos casos, logran ese malsano deseo incluso antes de sacar el ordenador de la tienda. Colaborando el vendedor a este círculo vicioso, mediante la promesa, o el compromiso, de instalar software privativo ilegal, como un argumento más para la venta del producto. Al fin y al cabo, no les cuesta ni un duro, ni al vendedor, ni al usuario. Es decir, les cuesta lo mismo, instalar uno, que cientos de programas y tanto la ausencia de sensación de delito, sobre todo, por parte del usuario, como los amplios discos duros actuales, se lo permiten sin estrecheces.

Está claro que no todo el software privativo pirata instalado en un ordenador se traduce en una “no compra de la correspondiente licencia”, de hecho, en muchos casos se instalan los programas, se necesiten o no realmente, ya que se perciben como gratis, o como regalo, al igual que otros programas que vienen pre-instalados legalmente en los ordenadores. Pero no se trata de una necesidad real de utilizarlos por parte de los usuarios, situación a la que podemos aplicar la ley de Pareto. Del 100% de los programas ilegales instalados, la mayoría de los usuarios es muy probable que realmente usen y necesiten un 20% de ellos. Lo que es evidente, es que estos usuarios no pagarían por ese 80% restante de programas ilegales que tienen instalados en sus ordenadores, si tuvieran que hacerlo obligatoriamente. En todo caso, pagarían por el 20% que sí necesitan realmente, o se pasarían directamente al software libre, por lo que tampoco se deben falsear las estadísticas con cifras infladas. Pero sin duda, esta práctica, desgraciadamente muy extendida en nuestra querida España, hace daño y mucho, tanto a las empresas de software privativo, como a las de software libre, como hemos dicho al principio. Recordemos aquí algo importante, el software privativo, incluidos los juegos, no es como la música, no existe ningún derecho a copia privada del mismo, con o sin ánimo de lucro ni canon que valga, simplemente es ilegal su copia.

Siempre he pensado que si todos los usuarios tuvieran que pagar religiosamente, por el software privativo pirata que tienen instalados en sus ordenadores, incluso considerando solamente aquel que usan realmente como necesidad en su vida diaria, el software libre tendría una mayor cuota de mercado y uso a todos los niveles de la sociedad y a las pruebas me remito. Lo cierto es que con el software libre estarían cubiertas al 100% las necesidades de la mayoría de los usuarios corporativos, domésticos y de la Administración y lo que es más interesante, de forma legal y con un precio mucho más competitivo, que con sus contrapartidas privativas basadas en onerosas licencias recurrentes en el tiempo. Esta última afirmación nada banal por cierto, debería ser más que interesante en tiempos de crisis y de hecho, el software libre se está imponiendo, tímidamente, sin prisas, pero sin pausas, sobre todo, en las Administraciones Públicas españolas y éste es un proceso que se está acelerando con la crisis económica.

En estos momentos de crisis, el paradigma está cambiando de forma radical en el mercado del software, sobre todo, cuando nos movemos en la legalidad estricta y no contamos con la evidente distorsión del mercado que provoca la presencia del software privativo ilegal en los ordenadores de los hogares, empresas y algunas Administraciones, que afortunadamente son pocas y cada vez menos, por ello el mayor impacto del Software Libre que en otros sectores, en los que la piratería está más extendida. El Software Libre, lejos de ser una alternativa más a considerar, se está convirtiendo en la única económicamente viable, si se desea poder acometer con éxito muchos proyectos de las Administraciones Públicas, en los que el precio es algo crítico.

Por otra parte, el Software Libre, como bien dicen los expertos desde hace años, añadiría a los contratos públicos transparencia, eficacia, economía y una sensación de buen hacer por parte de los responsables públicos, que se agradecería y mucho, ante los escándalos de corrupción y dispendio público, de complicada o dudosa justificación, que saltan por doquier sobre esta piel de toro.

Afortunadamente y para corroborar esas bondades del Software Libre en la Administración y que por cierto, no son pocas, cada día aparecen más noticias como esta, que nos llenan de esperanza. En este caso se trata de Holanda, país que ha apostado seriamente por el software libre en sus Administraciones Públicas, en el que ha diseñado una moneda de 5 euros usando exclusivamente software libre y por cierto, el diseño no tiene nada que envidiar a otros que se pudieran haber hecho usando un caro y sofisticado software privativo, de hecho, se ha calificado de “increíble” por los expertos. Holanda, con la decisión de usar de forma exclusiva estándares abiertos y software libre en sus Administraciones Públicas, también provocó que la OTAN aceptase el formato Open Document Format (ISO 26300 desde el 30 de noviembre de 2006), como estándar en la arquitectura técnica de referencia, que deben usar los países aliados para comunicarse entre ellos y que elabora la Agencia NC3TA.

Pero el uso ilegal del software privativo también tiene sus problemas y sus castigos y la Ley suele actuar en estos casos con rigor, aunque por desgracia no todas las veces que debiera. Pero nos debemos convencer de que hay actitudes que no valen la pena, sobre todo, cuando hay una alternativa legal, libre y económica, que en este momento no es mejor, ni peor que la privativa legal, simplemente es diferente y se llama Software Libre.

Remito a una noticia aparecida recientemente en el diario 20 Minutos, que habla de eso precisamente, de crimen y castigo, y que considero importante que se conozca como camino a la reflexión sobre todo este asunto.

Me pregunto, sabiendo lo que se sabe sobre el software libre ¿qué necesidad hay de todo esto?

Por Fernando Acero para Kriptópolis

WirelessKeyView

Cada vez que configuramos una nueva red inalámbrica, Windows almacena los datos de configuración para que la próxima vez que dicha red Wi-Fi esté disponible de nuevo, la conexión se realice automáticamente sin tener que volver a configurarla. De esto se encarga un servicio llamados Wireless Zero Configuration en el caso de Windows XP y WLAN AutoConfig en el caso de Windows Vista. Gracias a este par de servicios podemos movernos de casa, al trabajo, la universidad, una biblioteca pública, etc. sin preocuparnos de configurar la red del portátil, ya que la conexión en cada uno de estos lugares se hace automáticamente.

Si en alguna ocasión queremos recuperar las contraseñas de las redes Wi-Fi protegidas por WEP o WPAque tenemos configuradas en el ordenador pero resulta que no las tenemos apuntadas en ningún otro sitio, nos encontramos con el problema de que, a pesar de tenerlas configuradas previamente, los cuadros de texto donde se introducen las contraseñas sólo muestran asteriscos y no las podemos recuperar.

WirelessKeyView nos resuelve este problema recuperando las contraseñas de la configuración que está almacenada en los servicios de Windows que hemos comentado anteriormente. Además, podemos guardar las contraseñas en un archivo de texto, html o xml para tenerlas a mano por si necesitamos configurar algún otro ordenador.

Enlace: WirelessKeyView

MailCatch, correo electrónico temporal y gratuito

De esta forma, además de proporcionarnos otro servicio de cuentas de correo de usar y tirar sin necesidad de registros, nos ofrece la posibilidad de consultarlas mediante un Feed RSS como también ocurre en Pookmail, pero además, MailCatch también nos permite configurar una redireccióin automática (fowarding) de cualquiera de sus cuentas (@mailcatch.com) a otra dirección en la que deseemos recibir el correo; con las ventaja de poder guardar el correo recibido y la comodidad de no tener que visitar cada vez su página web, sino que podemos continuar usando nuestro cliente de correo habitual.

Las cuentas que configuremos para hacer fowarding pueden ser desactivadas fácilmente volviendo a introducir el par de cuentas (origen > destino) en la página de MailCatch.

Enlace: MailCatch

Recupera tu móvil robado con Ultimate Theft Alert

También podremos recibir un listado de las últimas llamadas que se han realizado y de los SMS que se han enviado desde el móvil extraviado, de forma que las posibilidades de recuperarlo aumentan.

Si el dispositivo extraviado posee GPS, posee una funcionalidad que es capaz de localizar tu teléfono a través de esta función, para enviar posteriormente un SMS con las coordenadas exactas de su localización. Vale aclara que todo el tiempo la aplicación trabaja de forma silenciosa y en segundo plano, sin que el usuario se de cuenta.

Descargar: Ultimate Theft Alert For PocketPC v3.5

No navegamos seguros

El estudio ha sido realizado utilizando los datos proporcionados por los servidores de Google, el servicio de Internet más utilizado del planeta, para detectar qué versión de navegador utilizan los usuarios para acceder a Internet y detectar qué porcentaje de los mismos actualizan su navegador y lo mantienen al día de parches de seguridad. Los datos se han recogido desde enero de 2007 hasta junio de 2008. En el informe emitido se refleja que los navegadores se han convertido en el objetivo preferido de los programadores de malware, han sido escogidos como la fuente ideal de infecciones para introducir código malicioso en ordenadores ajenos. Las razones para que los ciber-criminales hayan adoptado esta estrategia son dobles.

En primer lugar de rentabilidad. Atacar un servidor bien protegido puede ser una tarea complicada y que requiere una gran inversión en recursos. En cambio las vulnerabilidades de los navegadores son relativamente fáciles de explotar, y esa es la segunda razón. Incluso estas vulnerabilidades se encuentran bastante documentadas en la propia red. Además, la proliferación de Plug-ins y programas complementarios a los navegadores han multiplicado las posibilidades de aprovechar una brecha de seguridad.

En el informe se afirma que desde el año 2000 los fallos han crecido hasta alcanzar el 89,4% de vulnerabilidades en 2007. El método preferido para la infección es el de “drive-by download“, es decir, conducir al usuario a una página web donde descargará el código malicioso sin que se de cuenta. Para llevar al usuario a la página web donde se encuentra el código se utilizan varios métodos como spam a través de correo electrónico o suplantación de páginas web en las que confía el usuario, una práctica en pleno auge. En 2007 Google registró más de tres millones de sitios web maliciosos que participaron en prácticas “drive-by download“.

En cualquier caso el informe subraya que el punto débil de la cadena es precisamente el navegador, que de no estar actualizado y protegido con parches de seguridad está totalmente expuesto a este tipo de ataques. Los datos del estudio se refieren sólo a las versiones del navegador, no a los parches de seguridad.

Navegadores y últimas versiones

Para analizar los datos recogidos, el informe incluye las cifras de implantación de navegadores web a mediados de junio de 2008 utilizando los datos de la página TheCounter.com que pueden verse en la siguiente gráfica.

Según estos datos Internet Explorer, en esas fechas, ocupaba una posición de privilegio con el 78,3% de las instalaciones, seguido por Firefox con el 16,1%, Safari con el 3,4% y Opera con el 0,8%. A continuación se realizó el estudio, partiendo de las cifras de las versiones de los navegadores que se conectaban a los servidores de Google. Hay que tener en cuenta que se ha considerado como navegador más actualizado al Explorer 7. Sin embargo en el caso de Firefox se consideró la versión 2, al no estar la versión 3 suficientemente implementada.

Como se puede ver, el Firefox es el navegador que los usuarios más actualizan, por lo menos de los que acceden a los servidores de Google, con 83,3% de usuarios de Firefox que utilizan la versión actualizada. Sin embargo el Explorer tiene el parque de usuarios más despistados, con un 52,4% de navegadores aún no actualizados, a pesar de que la nueva versión del navegador está disponible desde octubre de 2006. El dato es aún más preocupante en cifras absolutas, ya que en ese período los Internet Explorer en uso por la red eran más de mil millones.

En porcentajes absolutos, según este estudio, las cifras son algo más tranquilizadoras. El 59,1% de los usuarios dispone de un navegador actualizado, 832 millones de navegadores son las últimas versiones disponibles. Aún así, el 40,9% restante de usuarios se exponen a un riesgo de seguridad.

Propuestas para una navegación segura

El informe trae sus propias propuestas para combatir este descuido que puede costarnos caro en términos de seguridad y protección de nuestros datos.

– La primera medida es que proponer la implantación de un sistema de actualización automática de los navegadores. Firefox y Opera disponen de este sistema, lo que se traduce en una navegación más segura. Durante el período del informe, la mayoría de los usuarios actualizaron a la última versión de Firefox en una media de tres días, que fueron once en el caso del navegador Opera.

– También se propone un uso más extendido del filtrado de URLs.  Las bases de datos de filtrado deben actualizarse para que contengan las direcciones de las páginas web potencialmente peligrosas para que este sistema pueda ser eficaz.

Fecha de caducidad de los navegadores que se muestren claramente en los propios navegadores o en las páginas web más visitadas. Se propone que se informe al usuario de si su navegador dispone de una versión actualizada e incluso de cuántos días han pasado desde la última actualización o cuántos parches de seguridad aún no ha instalado. Una medida que recogen directamente del sistema de caducidad de alimentos y productos perecederos y que afirman puede ser realmente eficaz. Se impone, según los autores del estudio, un cambio de mentalidad de forma que al igual que no comemos un producto caducado tampoco tendríamos que navegar con un software sin actualizar

Mensajes de error históricos

1. ¿Abortar, Reintentar, Ignorar?Esta famosa frase aparecía cada tres por cuatro en MS-DOS, y no era precisamente un mensaje de error demasiado afortunado: ninguna de las tres acciones eran especialmente aconsejables en muchos casos, y de hecho, a menudo era difícil saber cuál de las tres era la mejor opción.

2. Guru Meditation. Cualquiera que haya tenido un Commodore Amiga habrá sufrido en sus carnes esta particular versión de las BSOD en Amiga OS. Estos mensajes hacían referencia a un viejo juego al que los desarrolladores de los primeros juegos para este ordenador jugaban en los primeros tiempos de la informática, llamado Joyboard.

3. Red Screen of Death (“Pantallazo Rojo de la Muerte”): Curiosamente, algunas versiones de Windows Longhorn – la versión preliminar de Windows Vista- incluían un mensaje de error que en lugar de aparecer con el tradicional fondo azul lo hacían con fondo rojo.

4. Los “pitiditos” de la BIOS: Los usuarios de los antiguos PCs tuvieron también que sufrir errores que no sólo afectaban a la vista: también lo hacían al oído. Los pitidos emitidos por las BIOS como parte del proceso Power On Self-Test (POST). Cada fabricante y placa disponía de unos códigos propios e incomprensibles, que nunca ayudaron demasiado ni a los usuarios, ni a sus pobres oídos.

5. Failwhale: en el artículo original de Technologizer destacan un error aparecido en Twitter como uno de los más famosos, algo singular teniendo en cuenta que esta plataforma de micro-blogging ha aparecido muy recientemente. Sin embargo, Twitter también se ha hecho tristemente famoso por sus periodos de inaccesibilidad, lo que probablemente haya hecho que esta particular ballena se haya vuelto muy popular entre los millones de usuarios de este servicio.

6. “lp0 on fire”: No es muy probable que hayáis visto el origen de estos errores: provienen de los años 70 y de los sistemas Unix, que mandaban todo tipo de mensajes de error relativos a los puertos de impresora. Este en particular se originó porque, por increíble que parezca, algunos modelos utilizados en la época eran propensos a calentarse tanto que acababan incendiándose. Aquel problema desapareció, pero no el mensaje de error, que de vez en cuando sigue dando sustos.

7. Kernel Panic: tanto en sistemas Unix como en Mac OS X uno de los errores más temidos y frecuentes es el “kernel panic”, que es la verdadera versión Unix del “pantallazo azul de la muerte”. En Mac OS X incluso le dieron un toque de diseño con una pantalla algo más informativa, pero lo cierto es que una vez aparecía, lo tenías crudo.

8. Reinicio por una Llamada a Procedimiento Remoto: el error era casi tan grave como la BSOD, pero es que además no era causado de forma involuntaria, sino que se originó por el gusano Blaster, que se propagó por millones de máquinas de una forma increíblemente rápida a mediados de 2003.

9. No computable (“Does not compute”): El error más cinematográfico de todos los tiempos también es el más irónico: la frase en sí no tiene demasiado sentido, pero a pesar de ello todo tipo de series de televisión y películas han utilizado este verdadero “estándar” en mensajes de error.

10. Red Ring of Death (Anillo Rojo de la Muerte): La consola de Microsoft no podía librarse de los estigmas de su estirpe, y persentó su particular versión de las BSOD en forma de un comportamiento anómalo de los LEDs del botón de encendido. Cuando se presentaba un error grave en la consola al encenderla, aparecía un anillo rojo parpadeante al que pronto se le bautizó merecidamente como el anillo rojo de la muerte. Efectivamente: si el anillo aparecía en tu consola, es que esta había pasado a mejor vida, o casi.

11. Mac triste: Este típico error de los ordenadores y sistemas operativos de Apple surgió como contraposición al conocido logo de “Mac feliz”, y su aparición, con los tradicionales códigos hexadecimales, no les dejaba muchas opciones a los usuarios de esta plataforma. El error ya no está disponible en los sistemas modernos, pero en cambio ha sido heredado por los iPods, que a veces nos recuerdan que los Mac también pueden estar tristes.

12. Error 404: el fallo más importante y extendido de Internet ha generado toda una cultura a su alrededor. De hecho, el que al introducir cierta URL provoquemos un error 404 de “página no encontrada” ya no tiene porqué ser motivo de desesperación: a menudo estos errores son una forma más de aportar cierta creatividad y originalidad a nuestro sitio web.

13. Blue Screen of Death (“Pantallazo Azul de la Muerte”): por supuesto, el fallo más famoso y legendario de toda la historia es el que ha afectado durante generaciones al sistema operativo Windows de Microsoft.

Mucho se ha escrito sobre este tipo de errores, que han provocado toda una fiebre de productos de márketing (camisetas, salvapantallas, etc) y también una buena ristra de parodias y bromas sobre estos famosos pantallazos, que todos los usuarios de Windows han sufrido pero sin los que probablemente este sistema operativo nunca hubiera sido el mismo.

Traducido por David Martín para MuyComputer.

Los mejores sitios para subir archivos en internet

3. MyFreeFileHosting – MyFreeFileHosting, que también cuenta con un bonito diseño, incluye la opción de enviar una notificación por correo electrónico a alguien para notificar la subida del archivo y cuenta etiquetas para clasificarlos.  El tamaño máximo de archivo permitido es de 100MB.

4. Fileden – Fileden es uno de los más útiles para subir archivos. Los usuarios sin registarse pueden subir archivos de hasta 100MB, aunque los que se registren gratuitamente pueden ademas recibir espacio ilimitado en disco, ancho de banda ilimitado, la opción de crear proyectos, la capacidad de sustituir los archivos, estadísticas, etc.

5. Easyshare – EasyShare es una excelente opcion algo diferente a sus competidores. Permite subir archivos rápidamente, con cuentas que permitan la descarga de archivos varias veces. Además, abona a los usuarios por el uso de los archivos. Si el archivo alcanza las 10.000 descargas, el propietario del mismo recibirá US20$ de manos de Easyshare. Con una barra de herramientas personalizada en tu sitio web, puedes recibir dinero de tus archivos a través de la barra de herramientas y si son archivos de otra persona, EasyShare te pagará el 10% de sus ingresos. Además cuenta con múltiples opciones de subida. El tamaño máximo de archivo para una cuenta gratuita es 100MB.

6. FileFactory – Filefactory es muy similar en cuanto a opciones al anterior, y además incluye una opción de enviar una notificación por correo electrónico a una persona de un archivo subido. Por desgracia, Filefactory incluye publicidad excesiva para los usuarios no Premium. El tamaño máximo de archivo es 300MB, y los usuarios cobran por cada descarga que reciben de un determinado archivo.

7. Badongo – Badongo sin dudas es uno de los mejores, como usuario no registrado se te permite subir hasta 4.8 GB en un día y de forma gratuita, si eres usuario registrado se te permite subir hasta 12GB al día. Badongo permite a los usuarios subir archivos de un tamaño máximo de 1GB. Cuando te registras en Badongo recibes una cuenta que almacena todos sus archivos. Permite a los usuarios crear álbumes de fotos y un reproductor de MP3 en tu sitio web, y tiene además la opcion de crear presentaciones de diapositivas de fotos con efectos múltiples, etc…

Fuente: makeuseof

Virus pone en jaque a empresas antivirus

El virus utiliza Microsoft Enhanced Cryptographic Provider v1.0 (incluido en Windows) para encriptar ficheros. Los ficheros son encriptados utilizando al algoritmo RC4, y la clave de encriptación, es, a su vez, encriptada utilizando una clave pública RSA de 1024 bits de logitud, que es el cuerpo del virus. Desencriptar esta clave podría costar alrededor de 30 años de trabajo para un PC con un procesador a 2,2 Ghz.

El problema es que algunos oportunistas, como la empresa Kaspersky ha solicitado a la comunidad criptográfica internacional ayuda para poner solución al asunto, aunque sabe perfectamente que una clave RSA de 1024 bits no puede hoy en día desencriptarse (al menos no fuera de la NSA), por lo que este llamamiento sólo puede responder a una broma, una chapuza o una maniobra publicitaria (más bien apostaríamos por la tercera opción).

Por otro lado, tamaño esfuerzo tampoco llevaría a ninguna parte, porque bastaría cambiar la clave (e incluso fortalecerla) para que semejante “solución” quedara en nada.

Si un virus cifra tus datos y los “secuestra” puedes hacerte a la idea de que los has perdido (exactamente igual que si hubieran sido destruidos). Ni pedir ayuda a la NSA ni enviar 300 dólares a un delincuente anónimo son siquiera opciones a considerar…

Crear y mantener una página web

Poco más de un lustro más tarde los blogs empezaban a despuntar. Su éxito era en parte debido a la facilidad con la que un usuario podía publicar una entrada en su blog. ¿Qué había cambiado? Simple, los blogs contaban con un sistema gestor de contenidos, un CMS (Content Management System), muy sencillo pero, sobre todo, fácil de usar.

Hoy coexisten las dos maneras de hacer webs, cada una con sus ventajas e inconvenientes. Si pensamos introducir cambios en el sitio web de manera poco frecuente y la estructura no es compleja, muy probablemente un sitio estático sea la mejor solución. Un sistema gestor de contenidos nos permitirá realizar cambios frecuentes y mantener una estructura de información más sofisticada, entre otras ventajas. A cambio, un CMS necesita una infraestructura que hay que instalar y mantener. Como veremos más adelante, tenemos un abanico de opciones para esa infraestructura, que van de las sencillas de mantener pero limitadas en opciones y capacidad de personalizar a las más potentes pero, a su vez, más exigentes en recursos y conocimientos.

Creando una web sencilla

Así, cuando la página no pretende más que ofrecer una información puntual que no debe cambiar, puede ser interesante usar opciones sencillas y a priori menos costosas que los sistemas de gestión de contenidos.

Las páginas web estáticas (a priori aquellas que no usan un CMS) suelen necesitar menos recursos del servidor que las dinámicas. En primer lugar la página se crea una vez y a partir de ahí el servidor se limita a servirla a todos los usuarios que la pidan. No necesita ni traducciones, ni consultas a una base de datos ni nada similar. A cambio la modificación del contenido siempre será algo más costosa, normalmente requerirá ser trabajada en un ordenador local para después subirla al servidor mediante FTP. Es una buena opción en los casos en que la página web cambia poco, porqué el coste más elevado en las modificaciones se compensa con menos necesidades y por tanto menos coste en el servidor.

Una primera opción, seguramente la más flexible y potente, puede ser crear una página web con algún programa que permita la edición de (X)HTML como puede ser Adobe Dreamweaver, Microsoft Expression Web o KompoZer. Esta opción es sencilla aunque requiere conocimientos avanzados de (X)HTML y de un programa cliente de FTP.

Otra posibilidad es utilizar un servicio web que nos permita crear y almacenar una página web con un sencillo editor. Es el caso de Geocities, Google Page Creator, Páginas Web Gratis o EveryOneWeb. La ventaja es que no son necesarios conocimientos de (X)HTML ni un cliente FTP porqué las páginas se hacen sobre el servidor, pero a cambio estos servicios suelen crear páginas con estructuras muy rígidas y muy parecidas unas a otras.

Sistemas gestores de contenidos

Un CMS es un software que facilita la gestión de los contenidos de una página web. Su utilidad es manifiesta cuando la página se modifica frecuentemente, como un blog, una revista o la web de una empresa que actualiza a menudo la información corporativa.

En un CMS los contenidos se guardan separadamente de la presentación, generalmente en una base de datos (BD). De esta manera, cada vez que se solicita una página, el servidor debe obtener los datos de la BD y juntarlos con la información de la presentación para servir al cliente la página final. Este proceso suele requerir un servidor más potente que en el caso de páginas web estáticas, pero a cambio, la introducción de nuevos datos o la modificación de los existentes, sólo requiere el uso de un formulario que se encargará de guardar los datos en la base de datos.

Actualmente la variedad de sistemas gestores de contenidos es muy elevada: En CMSMatrix, tienen una comparativa de más de 900; y no están todos. Así, buscar el más adecuado para un determinado proyecto es una tarea muy complicada y generalmente los usuarios tienen tendencia a usar aquel que conocen, aunque no se adapte a lo que realmente quieren hacer.

Generalmente los CMS ofrecen posibilidades de personalización muy altas. Todos ofrecen diferentes plantillas para personalizar la presentación, y los genéricos, además, ofrecen numerosas opciones para añadir funcionalidades al sistema. Incluso en aquellos CMS donde no se ofrecen excesivas funcionalidades, no es extraño que ofrezcan un conjunto de funciones pensadas para que el usuario pueda modificar completamente el aspecto o pueda añadir funcionalidades creando plugins.

Para seleccionar adecuadamente un CMS existen algunas clasificaciones que pueden sernos de utilidad. Por una parte, la clasificación tradicional es la que se refiere a la utilidad que se dará al sistema. Sin ser una clasificación perfecta (una de las características de los CMS es su flexibilidad que les permite hacer más cosas que aquellas para las que fue creado) si puede ser un buen punto de partida.

Clasificación de CMS según el tipo de gestión y/o contenidos

Esta es la clasificación más comúnmente usada. Sin embargo es una clasificación extraña porqué mezcla la manera como se gestiona el contenido y el tipo de contenidos que se gestionan. Sin embargo el resultado es una clasificación muy completa.

En esta clasificación encontramos los siguientes tipos de gestores de contenidos:

Genéricos. Están pensados para ofrecer servicios de diferentes tipos y pueden usarse tanto para gestionar un blog personal, como un portal, una revista, una tienda,… En esta categoría se incluirían Plone, OpenCMS, MySpace, TYPO3, Mambo, Joomla o Drupal.

Blogs. Son los CMS especialmente creados para la gestión de diarios personales. Son CMS de blogs WordPress, B2Evolution, Movable Type, Blogger.

Wikis. Los wikis son un tipo de CMS pensados para que varios usuarios creen un documento o un conjunto de documentos de manera comunitaria. Mantiene un registro de modificaciones, lo cual permite ver en cada momento que cambios ha hecho cada usuario. MediaWiki es seguramente el CMS de este tipo más conocido, por ser el que se usa en la Wikipedia, aunque también son dignos de mención TikiWiki, PikiWiki o PmWiki.

Foros. Estos CMS permiten la gestión de foros de discusión. Son conocidos phpBB, PunBB, MyBB o SMF.

Galerías de imágenes. Permiten subir y gestionar imágenes, crear álbumes, enviar fotos a imprimir, ejemplos clásicos son Gallery, Flickr, PicasaWeb o Coppermine.

Comercio electrónico. Son CMS especializados en la gestión de sitios que se dedican a la compra-venta de productos a través de la web. Algunos ejemplos son osCommerce, Magento o PrestaShop.

De todas formas, esta clasificación aun siendo tal vez la más clara, no es del todo exacta. El motivo es que los gestores de contenido son muy flexibles y muchas veces pueden ser usados para webs que no guardan relación con el uso original que pretendió su creador.

Servicios de CMS

Aunque muchos de los CMS que acabamos de ver requieren ser instalados en un servidor web propio, existen también empresas que se dedican a ofrecer como servicio un CMS compartido. En estos casos, a pesar de que el CMS está compartido por cientos o miles de usuarios, en la práctica cada uno de ellos trabaja con el sistema como si fuese un usuario único.

Es el caso de WordPress o Blogger, como gestores de blogs, MySpace como CMS genérico, Pikiwiki como wiki o PicasaWeb o Flickr como galerías de imágenes. La gran ventaja de estos CMS es que para usarlos sólo hay que darse de alta en el servicio. A cambio las posibilidades de adaptación son menores.

Los CMS instalables son más adaptables, pero a cambio requieren un espacio web propio del usuario, así como mantenimiento y actualización constantes.

Clasificación según las características necesarias del servidor

No todos los CMS utilizan los mismos lenguajes de servidor ni funcionan sobre los mismos tipos de servidores. Por eso es importante saber que requerimientos tiene el CMS que queramos usar. La siguiente tabla muestra los algunos gestores de contenidos y sus requerimientos técnicos:

De nuevo, comentar que CMSMatrix puede ser un buen punto de partida para ver las características del CMS que queremos instalar y sus requerimientos técnicos. Sin embargo siempre es bueno consultar las webs de los programas para asegurarse de que los datos son correctos y tener en cuenta que no todos los CMS aparecen en CMSMatrix.

Personalizando un CMS

Una de las características más interesantes de los CMS son las posibilidades de personalización. Unos párrafos antes escribía que los sistemas gestores de contenidos acostumbran a disponer de varias plantillas para adaptar la presentación a las necesidades del usuario. También suelen permitir la inclusión de pequeños programas (llamados plugins) que añaden funcionalidades, generalmente desarrollados por usuarios con necesidades concretas que se solucionan ellos mismos y que después ceden a la comunidad o, en algunos casos, comercializan.

La comunidad de desarrolladores y usuarios formada alrededor de cada CMS es, además, otro factor clave a la hora de elegir una u otra herramienta. En primer lugar, porque es importante que haya un núcleo fuerte de desarrolladores que mantenga el código y añada funcionalidades, tanto dentro de la propia herramienta como en forma de plugins. Además, la comunidad de diseñadores es esencial para que no todas las instalaciones de un CMS tengan exactamente el mismo aspecto.

Para poder permitir el desarrollo de plugins y facilitar la creación de nuevas plantillas que permitan personalizar la presentación de las páginas creadas con un determinado CMS, los creadores de este tipo de software suelen proporcionar abundante documentación sobre las funciones que permiten el acceso a los datos.

Un caso particular es el de las plantillas. La creación de plantillas para CMS es una tarea compleja que requiere leerse bien los manuales que los equipos de desarrollo suelen publicar. Dependiendo del proyecto, la documentación puede ser más o menos completa y el desarrollo de plantillas más o menos compleja. Un ejemplo de documentaciones bien hechas son las de WordPress y la de Drupal.

Enlaces artículo:

Introducción a los Sistemas de Gestión de Contenidos (CMS) de código abierto (Xavier Cuerda Garcia y Julià Minguillón Alfonso)

http://mosaic.uoc.edu/articulos/cms1204.html

Via: mosaic.