Todas las entradas de: Lito Ibarra

La incorporación de la tecnología en el lenguaje

Los lingüistas, escritores y otros estudiosos del lenguaje, en los distintos idiomas, saben que la materia prima de su estudio es un objeto en constante cambio y evolución. No necesariamente con el regocijo y la aprobación de todos, las lenguas que hablamos y usamos para comunicarnos en todo el mundo agregan nuevas palabras, eliminan algunas otras, adoptan términos y crean sus propios vocablos, atendiendo a lo que pasa en su entorno.

Poco a poco, estas expresiones se incorporan a la forma de hablar cotidiana y se propagan tanto, de forma que las usamos aun sin conocer su origen. Las adiciones a la lengua tienen nombre propio: neologismos, barbarismos, anglicismos, y otros. Estas palabras y frases que guardan vinculación genética con la tecnología podría quizá llamarse “tecnologismos”.

El uso y acepción de estas expresiones proviene de la creatividad y el ingenio popular que asocia una de estas palabras nativas de la tecnología a una acción, característica o situación que puede o no tener relación evidente.

En algunos casos, los términos se difunden y asimilan de tal forma dentro de regiones geográficas más o menos extensas que son incluso aceptados por la Real Academia de la Lengua como parte del idioma. De todas formas, aceptados o no oficialmente, si a las personas de una comunidad o un país les resultan adecuadas estas frases, escucharemos con cada vez mayor frecuencia su uso.

Algunos ejemplos

Por supuesto, muchas de estas expresiones son generacionales o dependen del entorno, la coyuntura, las personas con las que nos relacionamos. Hay algunas otras que seguramente presentan variantes de una comunidad a otra, tanto en su formulación como en su significado. A continuación una pequeña e incompleta lista:

“Me cayó el cinco”. Representa el momento en que se entendió lo que sucedía o lo que quería decir algo. Dependiendo de la moneda o la devaluación, pueden usarse otras cantidades, y hace alusión a las monedas que se depositan en un teléfono público u otro tipo de máquinas tragamonedas.

“No me había hecho click la idea”. Se parece a la expresión anterior. La onomatopeya de la presión de los dedos sobre las teclas de una computadora se define como “click”, y representa en muchos casos el aval de la ejecución de un comando, por lo que “hacer click” representa el momento en que se comprende algo.

“Se le apagó la chispa”. Si a un motor de combustión no le funciona la chispa que se genera en las cámaras de pistones para generar el movimiento de los mismos, el motor deja de funcionar. Por analogía, si una persona no tiene chispa significa que no es tan activa, lista o creativa.

“Ponéte las pilas”. Como a cualquier máquina que utiliza energía para funcionar, y lo hace en forma portátil, es necesario ponerle las baterías, de la misma manera se hace alusión a usar esta fuente de energía en los seres humanos.

“Se le peló el cable”. Un cable que conduce energía eléctrica que pierda su forro aislante tiene altas posibilidades de provocar un cortocircuito, con el caos, desorden y mal funcionamiento que esto provoca. Esta expresión significa, en una persona, mostrar actitudes irracionales, rayando en la locura.

“Ya agarró llave”. Así como el arranque de un carro o un equipo puede fallar y no responder al uso de la llave que lo enciende, se dice de una persona que toma una actitud necia y obstinada respecto a una situación o una posición, negándose a considerar otras opciones.

“Dale ‘dilit’ y olvidate”. La tecla para suprimir o eliminar texto o cualquier contenido de una computadora es conocida como “delete”, pronunciada “dilit”. Por extensión, se usa para hacer desaparecer de nuestra mente algún problema o recuerdo.

“Me cambié el chip”. A los teléfonos celulares se les puede cambiar el circuito integrado, llamado chip, que contiene la información básica del usuario. Del mismo modo, una persona puede cambiar la base de su estado de ánimo o su predisposición.

“Cambiáte el cassette”. Similar a la expresión anterior, pero con tecnología más antigua. Nos puede dar una idea de la edad del usuario.

“Multiplicáte por cero”. De las matemáticas, la multiplicación por cero da como producto el cero. Es decir, se provoca el vacío o la nada, por lo que recomendar la auto-multiplicación por cero es equivalente a solicitar la desaparición.

“Resetealo”. A partir del término técnico en inglés “reset”, para representar la acción de inicializar un equipo, se extiende la expresión para volver a una situación inicial.

“Tengo esto como backup”. El término usado para indicar las copias de respaldo que se hacen en los sistemas de información, “backup”, también se usa como sinónimo de un plan alterno o de contingencia.

“Mi disco duro no da para más”. Se establece una analogía entre la memoria humana y las capacidades del disco duro de una computadora.

“Hice un escaneo en mi base de datos”. De igual modo, existe una semejanza con la colección de datos e información que alojamos en nuestra memoria con la que se almacena en una base de datos computacional. De aquí que los procesos que se hacen con la base de datos pueden hacerse, en esa concepción, con los datos en nuestra memoria.

No todo lo que se dice está correcto

Si bien estas palabras y frases no necesariamente están aceptadas por la Real Academia, en general se basan en palabras de otros idiomas, utilizados en el ámbito tecnológico. Hay otras expresiones, sin embargo, que reflejan un mal uso del lenguaje castellano.

“Te mandé un correo”. Se encuentra bastante diseminado el uso de la palabra “correo” como reemplazo de “mensaje”, al hablar del correo electrónico. Estrictamente hablando, se reciben y envían mensajes, y el correo electrónico es el medio utilizado para intercambiarlos.

“No se puede accesar los datos”. Esta expresión, también común, usa erróneamente el inexistente verbo “acessar” en vez del correcto “acceder”.

“Le aperturamos una cuenta de correo”. De igual modo, el verbo “aperturar” no existe en la lengua castellana. Existe el verbo “abrir” y éste es el que debe ser utilizado. Solamente existe el sustantivo “apertura”, pero no su forma como verbo. Lamentablemente, esta errónea creación es usada hasta en material publicitario de bancos y otras instituciones de importancia.

“Lo que es el equipo le lleva lo siguiente”. Una construcción gramatical extraña, en donde se agregan partículas innecesarias en la frase, tales como “lo que es” o “le lleva”, probablemente en un afán de sonar más elegante y sofisticado.

Por supuesto, hay muchas más expresiones que se basan en la inclusión de la tecnología en nuestras vidas. El lenguaje castellano continuará ampliando su riqueza y bagaje, y el ingenio popular seguirá contribuyendo a esa fusión y transposición de términos.

Linux llega a su mayoría de edad

El 25 de agosto de 1991 apareció un mensaje en el foro de discusión de los usuarios de Minix, que incluía estas frases:

“Hola a todos los que usan Minix – Estoy haciendo un sistema operativo (libre) (sólo un hobby, no será grande y profesional como GNU) para clones 386 (486) AT…”

“…esto implica que tendré algo práctico dentro de unos pocos meses, y me gustaría saber qué características quiere la mayoría de la gente. Cualquier sugerencia es bienvenida, pero no voy a prometer que la voy a poner en práctica :-)”

El sistema operativo mencionado en el mensaje fue nombrado Linux, y el famoso pingüino fue seleccionado como la mascota del mismo. Como suele suceder con los eventos históricos, nadie, incluido el joven finlandés Linus Torvalds, de 20 años en ese entonces, autor del mensaje, podía anticipar que Linux llegaría a ser uno de los sistemas operativos con mayor evolución y presencia en la industria informática mundial, rompiendo paradigmas y estadísticas de utilización y aceptación mundial.

Una decisión muy importante que Torvalds tomó en ese momento fue usar la licencia GPL (Licencia Pública General GNU, por sus siglas en inglés) para su sistema operativo, creada por otro nombre bastante conocido en la industria hoy en día, Richard Stallman. En esencia, esta licencia nos otorga a todos las libertades de usar el software para cualquier propósito, modificar el software según nuestras necesidades, compartir el software con amigos y colegas, y compartir las modificaciones que le hagamos.

Sabores, evolución y aliados

No pasó mucho tiempo después de las primeras versiones de este sistema operativo, construido con algunas similitudes al sistema operativo Unix y otros contemporáneos, para que atrajera la atención y, sobre todo, el trabajo creativo y desinteresado de muchas personas alrededor del mundo.

En 2011, a raíz de las celebraciones del vigésimo aniversario, se recopilaron los hitos más importantes en la vida de Linux. Entre ellos, el licenciamiento GPL, la cotización en bolsa de la versión de Red Hat, la utilización de Linux en equipos de los fabricantes más importantes de hardware (como IBM), la creación de la Fundación Linux, el surgimiento del sistema operativo Android para dispositivos móviles basado en Linux, y más.

Existen varias distribuciones, sabores o versiones del sistema operativo del pingüino. Cada usuario de estas distribuciones argumentará a favor de la que utiliza, pero todos coinciden en que se trata de una plataforma robusta, muy diseminada en el mundo y en continua mejora gracias al apoyo y trabajo de muchas empresas, personas e instituciones alrededor del mundo.

De igual manera, si bien al principio Linux se utilizaba mayoritariamente en hogares y centros académicos, ya hace bastante tiempo que las empresas también utilizan este sistema operativo para albergar y correr sus sistemas legados, administrativos y clave para su negocio, lo que habla bien de la robustez y confiabilidad de la plataforma.

Es también importante resaltar que grandes actores de la industria de la computación e Internet son miembros activos de la Fundación Linux. Entre ellos, empresas como IBM, Intel, Google, HP, Oracle y Samsung, y este mismo mes de agosto 2012 Twitter se sumará a esa lista.

La importancia de Linux en el desarrollo mundial

Cualquier persona que cumpla 21 años y pueda contar en su haber con los logros que Linux ha conseguido pudiera sentirse satisfecho y realizado. La cantidad de negocios, plataformas, servicios y otros dispositivos que usan Linux ha crecido en forma exponencial, y su presencia en el mundo es clave.

El rol de Linux dentro de la industria informática mundial es relevante por varios motivos:

  • Es un esfuerzo de colaboración mundial sin muchos precedentes.
  • Representa el paradigma del software de código abierto, y es mencionado a menudo como el ejemplo de productos con licencia de uso público.
  • Hace posible que otros productos compitan y mejoren continuamente sus prestaciones.
  • Establece un parangón en la industria, haciendo ver la posibilidad real de lograr buenos productos a bajo o nulo costo al público.
  • La organización y grupo de leales seguidores, ingenieros, diseñadores, programadores a nivel mundial mantienen una mística que hace muy difícil que el soporte cese algún día.
  • Es un producto en continua mejora, aceptando las sugerencias y desarrollos propuestos y realizados por una creciente legión de usuarios.

Por éstas y muchas otras razones, la llegada a la mayoría de edad de Linux es un motivo para celebrar para todos los usuarios, los ingenieros y analistas de sistemas, y en general, para todos los que disfrutamos de Internet y de los servicios y aplicaciones que la tecnología de información y comunicaciones ha puesto a nuestra disposición.

¡Feliz cumpleaños, Linux, y felicitaciones a todos los usuarios y promotores de Linux en el mundo!

 

Buenas noticias: IXP y Servidor raíz para El Salvador

Con el apoyo de LACNIC e ISOC, recientemente se desarrolló con éxito un Taller sobre el nuevo esquema de direcciones IPv6 y otros protocolos de enrutamiento. Localmente, los organizadores fueron la Universidad Centroamericana José Simeón Cañas (UCA), Asociación SVNet y RAICES.

Uno de los objetivos de este taller de 3 días es continuar con la promoción, empuje y desarrollo de competencias entre el personal técnico de algunas instituciones en el país, por lo que se contó con la participación de funcionarios de las universidades UDB, UFG, UNICAES, UGB y UCA, así como de las empresas proveedoras de conectividad a Internet en El Salvador Tigo, Claro, Telefónica y Digicel, y de otras organizaciones como la SIGET (Superintendencia General de Electricidad y Telecomunicaciones) y ASPROC (Asociación Salvadoreña de Profesionales en Computación).

Como se ha mencionado reiteradamente, es importante que las empresas de todos los sectores, pero especialmente las que se dedican a proveer servicios relacionados a Internet, ya sea conectividad o contenido, formulen sus planes de investigación, capacitación, pruebas e implementación del protocolo IPv6. Por eso es estratégico que los países preparen a su personal, tanto en instituciones académicas como en empresas de conectividad, para replicar estas experiencias y poder seguir ampliando la base técnica de recurso humano capacitado.

Dos pasos adicionales

Contando con la presencia y apoyo de los representantes de LACNIC e ISOC, adicionalmente se dieron dos pasos importantes para mejorar la provisión del servicio de conectividad a Internet en El Salvador:

  1. En primer lugar, se desarrolló una reunión de planificación de la instalación del Punto de Intercambio de Tráfico Internet en El Salvador, que será conocido como IXSal (Internet eXchange de El SALvador), y administrado por SVNet.
  2. Relacionado con el tema anterior, también se firmaron sendos convenios entre SVNet y LACNIC y entre SVNet e ICANN, con el objetivo de instalar una copia del servidor raíz L en la ubicación de IXSal.

Un Punto de Intercambio de Internet (IXP, por sus siglas en inglés) es un sitio físico en el que los proveedores de servicio Internet (ISP) de un país o de una región se interconectan e intercambian el tráfico Internet que va de uno de los proveedores a otro de los ISP conectados en el mencionado punto.

Este intercambio local tiene una gran cantidad de ventajas para ambos proveedores que realizan el intercambio, así como para los usuarios finales: economía, velocidad y eficiencia, así como el desarrollo de servicios y prestaciones adicionales. Sin un IXP, es muy probable que para comunicar dos entidades que se encuentren cerca geográficamente, pero que contratan a proveedores distintos, los paquetes de información deban incluso salir del país y volver a entrar, usando enlaces internacionales para tráfico nacional.

La instalación de IXSal será posible gracias al apoyo de varias instituciones, nacionales e internacionales, que tienen entre sus objetivos la promoción y desarrollo de una mejor Internet:

  • Dataguard, empresa privada salvadoreña, facilita las instalaciones de su centro de datos para hospedar los equipos que conforman el IXP.
  • Packet Clearing House (PCH), organización internacional sin fines de lucro, ha provisto parte de los equipos necesarios para configurar el IXP.
  • Internet Society (ISOC), organización internacional sin fines de lucro, además de proveer equipamiento y parte del financiamiento para la operación del IXP, también apoya con asesoría técnica.
  • LACNIC, el registro de direcciones Internet para Latinoamérica y el Caribe, facilita el soporte técnico, contactos internacionales, bloques de direcciones IPv6 para el IXP, capacitaciones y el apoyo para lograr servicios adicionales en el IXP.
  • SVNet, organización sin fines de lucro, administrador de dominios SV y otras actividades para desarrollar Internet en El Salvador, aporta la administración y operación técnica del IXP.
  • Los proveedores de conectividad de Internet en El Salvador, empresas privadas que proveen un enlace desde sus redes hacia IXSal para lograr el intercambio efectivo de tráfico, siendo partícipes de los múltiples beneficios.

Nuevas posibilidades de inmediato

En un acto simbólico dentro de la misma reunión de trabajo para adelantar con la realización de IXSal, SVNet formalizó el compromiso para instalar una copia del Servidor Raíz L en El Salvador, firmando acuerdos con:

  1. LACNIC realizará la donación del equipo y brindará el apoyo técnico.
  2. ICANN, como la entidad responsable de los Servidores Raíz en Internet debe aprobar y supervisar todas las instalaciones de las copias de tales servidores en el mundo

Este servidor será instalado en IXSal, y proveerá la resolución de nombres de dominio para los usuarios y clientes de los proveedores de conectividad que accedan a IXSal de una manera sumamente eficiente, al estar ubicado geográficamente más cerca de nuestros computadores y servidores conectados a Internet.

Estas dos buenas noticias, la creación de IXSal y la instalación del servidor raíz en El Salvador, incrementarán la eficiencia de las operaciones y la gestión de Internet en el país, trayendo beneficios presentes y futuros a todos los que utilizamos la red de redes, y estimulando la ampliación de la cantidad de usuarios y de la calidad de los servicios ofrecidos.

 

Obsolescencia programada

¿Cuántos celulares, monitores, impresores y otros dispositivos ha tirado usted a la basura o ha descartado hasta la fecha, debido a que dejaron de funcionar, y entonces encontró que era más barato comprar uno nuevo que repararlo?

Todos aceptamos en forma casi inconsciente y sin mucho cuestionamiento que la mayoría de artefactos, dispositivos, equipos y suministros que compramos y usamos, duran un tiempo determinado y en seguida se deterioran o se arruinan por completo. Algunos de ellos, nos parece, tienen su primera falla justo un día después de que termina la garantía del fabricante.

Según algunos estudiosos, la duración efectiva de un producto es parte del diseño original del mismo, lo que significa que no es casualidad ni es “natural” que un producto dure funcionando lo que dura, pudiendo este período ser más largo. La razón y el argumento para que los productos comiencen a fallar y sea necesario reponerlos es, por supuesto, la necesidad de generar más ventas y una mayor circulación del dinero para mantener el flujo económico.

El producto ícono que se menciona como el anti-ejemplo de esta duración limitada, y que contradice la noción de que los productos deben durar un tiempo relativamente corto es la bombilla de luz “centenaria”, ubicada en la estación de bomberos de Livermore, California, que está en funcionamiento desde 1901, es decir, tiene más de 111 años a esta fecha.

Ingeniería y economía se combinan

De acuerdo a Wikipedia, se denomina obsolescencia programada u obsolescencia planificada a la determinación, la planificación o programación del fin de la vida útil de un producto o servicio de modo que —tras un período de tiempo calculado de antemano por el fabricante o por la empresa de servicios durante la fase de diseño de dicho producto o servicio— éste se torne obsoleto, no funcional, inútil o inservible.

Otras definiciones establecen que esta obsolescencia programada hace referencia al progresivo acortamiento de la vida de un producto con el fin de convertirlo en un objeto de “usar y tirar”, con el consiguiente gasto por parte del afectado al tener que comprar otro. La operación es simple: basta con la inclusión de pequeñas piezas defectuosas en nuestros computadores, lavadoras o televisores, de manera que éstos no tardan demasiado en dar problemas.

Pareciera que “diseñar para fallar” fuera un oxímoron (una contradicción en sí misma), puesto que a los ingenieros se les educa para que desarrollen los mejores, más eficientes y más duraderos productos.

Entonces, debido a razones y justificaciones económicas, este concepto establece la “necesidad” de diseñar los productos con una vida útil predeterminada, aunque la ciencia y la tecnología permitan que dicha duración sea mayor.

Por moda o por necesidad creada

Más recientemente, dado que nuestra sociedad de consumo requiere que todos compremos continuamente nuevos y más artículos, los productores han debido crear nuevas estrategias, además de la obsolescencia programada, con las cuales convencer al potencial comprador.

Cuando no es posible “diseñar para fallar” porque no hay acuerdo general entre los fabricantes, y alguno de ellos desarrolla un producto que dura más, ganando de esta forma el mercado, se acude al mercadeo para crear la necesidad en el consumidor de actualizar o acompañar a la moda, induciéndole a adquirir los productos que probablemente no necesita. Un claro ejemplo es la frecuencia con la que muchas personas cambian de teléfono celular, aun sin que haya fallado el anterior.

En el caso de los productos de software, por ejemplo, cuando sale una nueva versión de un sistema operativo, una herramienta ofimática o un paquete de productividad en cualquier área, es importante para el productor generar nuevas ventas para recuperar la inversión.

Entonces, es necesario convencer a los potenciales compradores, que incluyen a los que ya tenían una de las versiones anteriores, que la nueva versión es mejor y resuelve aun más problemas que las anteriores, es la moda o tenerla es una necesidad ineludible. De esta forma puede darse que, a pesar de que la versión anterior aun genera los resultados y subproductos suficientes, los encargados de compra de una empresa se encuentren con solicitudes para adquirir la versión más reciente.

Más conciencia antes de comprar

Hay más aspectos que se derivan de la obsolescencia programada: es posible intencionalmente dejar fuera innovaciones tecnológicas para promover las ventas de los productos que aun existen en inventario o cuya transición resulta muy cara para los fabricantes (el vehículo eléctrico o el resistente hilo de nylon, por ejemplo).

En las versiones de software, se puede retrasar deliberadamente la inclusión de una característica en la versión 1, para tener argumentos promocionales para vender la versión 2 y subsiguientes, o crear continuamente nuevas versiones, rodeándolas de un ambiente de modernidad y símbolo de estatus y progreso, relegando como obsoletas o desactualizadas a las empresas y personas que “todavía” no usan la versión más reciente.

La actitud, como consumidores, debe comenzar por cobrar conciencia de este fenómeno tecno-económico, y revisar continuamente si es absolutamente necesario comprar un nuevo celular o una nueva versión de software, antes de seguir contribuyendo a las “fallas por diseño”, la “duración planificada” o la obsolescencia programada.

 

Las direcciones IPv6 pueden contener palabras… y ser divertidas

¿Quién dijo que todo es trabajo y complicados diseños de ingeniería en el mundo de los protocolos Internet? Todos necesitamos relajarnos y distraernos, y sin proponérselo, la convención adoptada para representar los dígitos en el sistema hexadecimal (base 16), ahora muy utilizada para representar las direcciones IPv6 debido a la mayor cantidad de bits (128) que utilizan, ha dado paso a una novedosa curiosidad.

Recordemos que en el mundo digital, los únicos dos dígitos que se utilizan son el “0” y el “1”, motivando a que se use el sistema numérico binario (2 dígitos) para representar los números y crear sistemas de representación de letras, tales como el ASCII, que también utilicen solamente esos dos dígitos para representar los demás caracteres alfabéticos y especiales.

Así, las combinaciones posibles de 4 dígitos binarios pueden representar, en el sistema decimal que usamos todos los días, desde el número 0 hasta el número 15; es decir, pueden representar 16 números. Si deseamos representar estos 4 dígitos binarios, o 16 números decimales, con un solo carácter, debemos utilizar el sistema hexadecimal (basado en 16) de representación. Esto ha provocado que usemos las primeras 6 letras del alfabeto, tal como se muestra en la siguiente figura.

Dado que las direcciones IPv6 contienen 128 bits, se ha convenido en representarlas por medio de 8 grupos de 16 bits. Cada uno de estos grupos de 16 bits, a su vez, puede ser representado por 4 cifras hexadecimales, pues cada cifra representa a 4 bits. De esta forma, terminamos con 32 dígitos hexadecimales, lo que es mucho más práctico para representar una dirección IPv6.

Letras y números que parecen letras

De acuerdo a lo dicho, una dirección IPv6 puede lucir como se muestra a continuación, utilizando caracteres hexadecimales para representarla:

Partiendo de las seis letras que la notación hexadecimal ya contiene, y extendiendo un poco el parecido visual entre algunos números y las letras, los promotores de esta innovadora y simpática idea determinan que se puede contar con unas cuantas letras y números que parecen letras, con el objetivo de formar palabras.

Entonces, un aspecto mucho más lúdico acerca del protocolo IPv6 de direcciones en Internet consiste en concebir palabras, sobre todo de cuatro letras, que puedan ser representadas dentro de las direcciones IPv6 asignadas a algunos servidores, equipos y dispositivos, simplemente por la diversión que entraña, ya que no tiene ninguna implicación tecnológica.

Con la cantidad de direcciones IPv6 asignadas habitualmente, es totalmente factible que los ingenieros de red de cada empresa o institución hagan uso de este recurso mnemónico para designar las direcciones de las subredes y equipos que administran.

Algunos ejemplos en inglés y en español

De esta forma, podrán existir direcciones IPv6 válidas como las siguientes, conteniendo marcas famosas o conocidas, mensajes, apodos, nombres o palabras sencillas. Los ceros al principio pueden omitirse, y cuando hay ceros contiguos se pueden usar dos símbolos “:” seguidos.

A ver si puede leerlas:

2001:0db8:ac10:ee01:0000:face:b00c:0000

3245:dead:beef:54ea:7834:de89:264e:0304

ed86:234:efa6:5ac8:0000:deaf:babe:0000

1002:efc:e346:ad98::c0ca:c01a

3004:eadf:764e:8934:ad0c:0000:0020:0035

2893:4eac:65fc:763c:0000:beba:cafe:0000

3657:234e:52fc:98ad:cada:10c0:cada:1dea

O una frase completa en inglés:

1ce:c01d:bee2:15:a5:900d:a5:11fe

(ice cold beer is as good as life)

Ésta es más difícil, y también más personal:

1957:0329:1ee2:002a:fae1:1170:1ba2:2a00

Con esta técnica, podemos seguir concibiendo más palabras y frases que se pueden configurar como las direcciones IPv6 de nuestros equipos. Hay muchas más palabras, en español y en otros idiomas que usen los símbolos latinos. Si no se le ocurren, puede ver este sitio.

Así que ahora que definamos y diseñemos nuestra transición a IPv6, también podremos colocar algunas palabras y hasta frases en las direcciones de las subredes que asignemos. Al mismo tiempo que hacemos avanzar el protocolo IPv6 en Internet nos divertimos un poco.

 

¿Por qué nos debería importar el cambio a IPv6?

Quizá hemos escuchado algo sobre el cambio de direcciones en Internet. Quizá no. El nuevo diseño del protocolo de direcciones IP, conocido como IPv6, inició en 1993, y se comenzó a desplegar en 1999.

Desde esas fechas se anticipaba que la cantidad de direcciones que se pueden lograr con la actual versión 4, siendo un poco más de 4 mil millones, no iba a ser suficiente a medida que aumentaban los usuarios de Internet en el mundo, las aplicaciones desarrolladas, la cantidad y variedad de dispositivos utilizados.

De hecho, una evidencia de lo reducido y escaso que se ha vuelto el espacio IPv4 es el uso bastante diseminado de la tecnología NAT (Traducción de Direcciones de Red, por sus siglas en inglés), que dicho en forma sencilla logra canalizar varias direcciones privadas a través de una dirección IP pública. Otro reflejo de esta limitación es la relativa dificultad que tienen la mayoría de usuarios caseros para obtener direcciones públicas para publicar sus propios sitios web.

Fuente: Hurricane Electrics

La mayor parte de grandes empresas de contenido, conexión a Internet y fabricación de dispositivos de comunicación ya están activamente trabajando en el despliegue del nuevo protocolo. Los Registros de Internet Regionales (RIR), como LACNIC, también están facilitando y propiciando este cambio.

Hechos sobre IPv4 e IPv6

Hay algunos datos interesantes sobre las direcciones y los protocolos en uso actualmente (las versiones 4 y 6):

Las direcciones IPv4 se están acabando. En febrero de 2011, el repositorio central de direcciones IPv4 de IANA entregó los últimos bloques a los registros regionales. De estos, APNIC, el registro de Asia Pacífico, ya entregó sus últimos bloques, y la demás regiones están en ese camino.

Fuente: LACNIC

En un futuro cercano, esto significa que se dejarán de tener nuevas conexiones, que para los proveedores de conectividad (ISP) se interpreta como dejar de tener nuevos clientes. Esto es el verdadero costo para los proveedores que no echen a andar sus estrategias de transición a la brevedad.

La anterior excusa de que no hay contenido accesible en IPv6 dejó de ser válida el pasado 6 de junio, pues en esa fecha muchos de los proveedores de contenido más relevantes a nivel mundial han dejado accesible sus sitios a través de IPv6. Esto incluye a Facebook, Google, Yahoo!, Akamai, Wikipedia, Twitter, y muchos más.

Desde una perspectiva técnica, existen problemas con el uso de los NAT, que han sido soslayados hasta el momento, pero que IPv6 resolverá definitivamente:

  • Usando NAT se está alterando el modelo original del diseño de Internet de comunicar un dispositivo con otro en forma directa y dedicada.
  • Las listas de control de acceso, al bloquear a los “malos”, deben forzosamente bloquear a los “buenos”, ya que todos vienen con una misma dirección a través de un NAT.
  • Las cajas NAT tienen limitaciones respecto a la cantidad de sesiones.
  • Con los NAT, clientes de de distintos países salen a Internet con una misma dirección, lo que impide identificar el país o la región de donde proviene cada usuario. Cualquier política geo-referenciada de proveedores como Google, Twitter y otros, que las tienen, carece completamente de validez.
  • Se dan problemas con los juegos en Internet, así como con cualquier aplicación que requiera direcciones IP públicas directas y accesibles, ya que el usuario no controla el NAT.
  • Con IPv6, existirá la posibilidad de conectar un dispositivo directamente con otro dispositivo, obviando los NAT, en forma completamente dedicada.
  • Por ejemplo, el 75% del código de programación de Skype se dedica a pasar y resolver problemas derivados del uso de NAT y sólo el 25% del código se concentra en hacer lo que Skype hace.

La estrategia con IPv6

Es importante cambiar la mentalidad al pensar en IPv6.

No se debe dar una dirección por usuario o por servidor. Ahora se pueden dar redes completas, pues las direcciones son casi ilimitadas.

La entrega mínima a cada usuario final de IPv6 es /48, que equivale a 65 mil subredes, cada una de 10 elevado a la 64ª potencia; es decir, CADA usuario final (universidades, instituciones de gobierno, empresas grandes)  tendrá acceso a muchísimas veces más que el universo completo de direcciones actuales en IPv4.

Fuente: RIPE

No se recomiendan las soluciones de túnel para producción, solamente para pruebas. La estrategia correcta es pensar en el “Dual Stack”, es decir, equipos que puedan manejar ambos protocolos, mientras dure el proceso de transición, manteniendo en el horizonte el uso de IPv6 solamente.

Algunas de las recomendaciones generales para implementar IPv6 son, de acuerdo a LACNIC:

  • Mantener IPv4 como está
  • Tener Dual Stack
  • No establecer túneles
  • Tener tránsito IPv6 nativo
  • Tener una IP por host (no tener NAT)
  • Hacer un plan de numeración para IPv4
  • Gestionar la seguridad, monitorear y registrar los eventos en IPv6

Y los pasos que la misma organización sugiere, dicho muy sencillamente, son:

  • Investigación inicial de tecnología
  • Entrenamiento de personal
  • Desarrollar una estrategia de adopción de IPv6
  • Análisis de Infraestructura
  • Desarrollar arquitectura y diseño de IPv6 detallados
  • Desarrollo, testeo y modo piloto
  • Desarrollar política de seguridad, procedimientos, etc.
  • Implementación masiva y operación en producción

 

Una nueva Política Nacional ¿Veremos sus objetivos realizados?

El 12 de julio se presentó oficialmente la nueva Política Nacional de Innovación, Ciencia y Tecnología, producto del trabajo colaborativo entre el Ministerio de Educación, a través del Viceministerio de Ciencia y Tecnología, el Ministerio de Economía y la Secretaría Técnica de la Presidencia, el CONACYT y algunas instituciones y personas, que brindaron sus aportes a la misma, a través de la consulta pública que se habilitó.

En forma errónea, se dijo en alguno de los mensajes que se emitieron que ésta era la primera vez que en El Salvador se lograba y presentaba una política nacional como la que se lanzaba en ese momento. Una lista incompleta de las iniciativas similares en nuestro país, algunas de las cuales han culminado en documentos formales de política, ha sido presentada en este mismo espacio hace poco tiempo.

También se enfatizó el hecho de que se busca que ésta, y otras propuestas similares en otros ámbitos, se conviertan en políticas de Estado, trascendiendo las gestiones particulares de uno y otro gobierno. Ojalá esta buena intención se convierta en realidad, pues en forma similar ya han existido políticas, como la de Ciencia, Tecnología e Innovación, presentada por el CONACYT en 2006, o el Plan 2021, lanzado en marzo de 2005, que buscaba proveer un horizonte a largo plazo a la educación nacional, que han sido soslayadas y reemplazadas por otras políticas de Estado.

Independientemente de sus antecedentes y de las otras experiencias que hemos vivido en el país respecto a la posibilidad de establecer y perseguir metas a largo plazo, sobre todo en áreas tan poco apoyadas como son la investigación, la ciencia, la innovación y la tecnología, sigue siendo muy importante, y un elemento estratégico para el desarrollo, que todos apoyemos estas iniciativas.

Los elementos de la Política

La orientación de esta Política Nacional de Innovación, Ciencia y Tecnología (PNICT) es definida en su introducción: “Es así como esta política tiene a la base el fomento a la producción de conocimiento aplicado al sector productivo; la formación técnica profesional orientada a las demandas de las áreas estratégicas y la vinculación entre los sectores académicos, de investigación y privado, y la definición de prioridades en áreas estratégicas de trabajo”.

De acuerdo a la PNICT, los cinco objetivos y las estrategias definidas para alcanzarlos son ambiciosos, pero comprenden los requerimientos mínimos, si es que la apuesta es seria.

A. Generar bienes públicos y fortalecer el entorno habilitante para la I+D+i

  1. Creación y fortalecimiento de la institucionalidad del Sistema Nacional de Innovación, Ciencia y Tecnología.
  2. Creación y fortalecimiento de infraestructura científica y tecnológica necesaria para el desarrollo de actividades de ICT.
  3. Diseño e implementación de los mecanismos para la financiación de bienes y servicios innovadores.
  4. Establecer alianzas regionales e internacionales para la promoción de la investigación, la transferencia tecnológica y el desarrollo de la I+D+i.

B. Fortalecer la investigación científica, el desarrollo tecnológico y la innovación precompetitiva (I+D+i)

  1. Fortalecimiento de la formación de capital humano avanzado para la investigación científica, tecnológica y de innovación vinculada al desarrollo productivo.
  2. Fortalecimiento de la investigación científica en universidades y centros de I+D+i.

C. Apoyar la innovación empresarial para el incremento de su productividad y su competitividad.

  1. Fomento de actividades de ICT para el desarrollo de productos, procesos y servicios.
  2. Desarrollo de mecanismos de apoyo a estrategias empresariales basadas en innovación.

D. Estimular el emprendimiento innovador.

  1. Mejora del entorno y provisión de servicios financieros y no financieros.

E. Difundir y promover la adopción tecnológica y la absorción de I+D+i en la sociedad salvadoreña.

  1. Difusión, promoción y adopción tecnológica.
  2. Difusión, promoción y apropiación de la I+D+i.

Lo esperado y lo pendiente

El lanzamiento de la PNICT es un buen paso. Aunque la misma señala que “La implementación de la Política Nacional de ICT es responsabilidad del sector público salvadoreño”, también incluye un párrafo que establece que “se requiere la participación de otras instituciones del sector público, del empresariado nacional, de la academia y de la sociedad civil en general”.

En otra entrada en este espacio, en marzo de 2012, el tema de esta política fue abordado y contó con varios aportes de lectores, que pueden ser críticas y aportes valiosos para un tema que, en general, no se halla tan difundido en nuestra población: la preocupación sistemática por el desarrollo de la ciencia, la investigación y el uso de la tecnología, como motores de la productividad, la innovación y la generación de riqueza.

Las instituciones que se encargarán de materializar esta política, según la misma, son todas nuevas: un Comité Interministerial para la Innovación, Ciencia y Tecnología (CIICT), un Comité Consultivo, una Unidad Coordinadora Interministerial de Innovación, Ciencia y Tecnología, las  Unidades Ministeriales en Innovación, Ciencia y Tecnología y un Observatorio Nacional de Ciencia, Tecnología e Innovación.

En esta estructura, el único espacio donde los demás sectores, además del público, pueden participar, es el Consejo Consultivo, y aun ahí, su rol no es vinculante. De acuerdo al documento, este Consejo “validará y propondrá lineamientos de políticas, planes y programas e instrumentos en consistencia con las directrices del CIICT”.

Triángulo de Sábato

Entonces, si bien el gobierno debe desempeñar un importante rol en este tema, aun está pendiente aceptar y definir una mayor y más cercana relación entre estos organismos a ser creados y los demás sectores de la sociedad: académico, empresarial y profesional. El desarrollo nacional por la vía del conocimiento es una tarea de todos, y esta colaboración e interrelación debe quedar afirmada en una política nacional como ésta.

Recordemos el triángulo de Sábato, y esperemos que esta ausencia pueda ser subsanada de la mejor manera.

 

TICAL 2012: 2ª reunión de Directores TI de universidades de América Latina

Aunque a veces se soslaya, los directores de tecnología informática de las universidades de Latinoamérica desempeñan las mismas funciones, y tienen exactamente las mismas dificultades y desafíos que los gerentes de informática de las demás empresas, privadas y públicas, de todos los sectores de la actividad productiva.

Deben mantenerse atentos a la evolución de la tecnología, así como a las tendencias comerciales y tecnológicas del entorno, tal como cualquier gestor de los recursos tecnológicos de una empresa, nacional o transnacional; negociar con proveedores, convencer a sus juntas directivas, preparar presupuestos y controlar gastos, seleccionar, capacitar y certificar a su personal, diseñar y desarrollar sistemas, custodiar los servidores y las bases de datos, garantizar la seguridad informática y mantener la operación corriendo con el menor tiempo fuera de servicio, entre otras actividades.

Por otro lado, a diferencia de sus colegas, los directores TI de las universidades cuentan entre sus usuarios a los estudiantes universitarios, docentes, investigadores y administrativos, y esto conlleva algunas diferencias con la mayoría de empresas, entre las que se puede considerar:

  • Cantidad de la población estudiantil y docente

Hay universidades con decenas de miles de estudiantes, con diversas necesidades y plataformas de computación, que hacen uso de los servicios TI, dentro y fuera del campus.

  • Heterogeneidad de servicios y aplicaciones

Desde las aplicaciones financieras, administrativas y administrativas-académicas, hasta la educación en línea y el uso de computadores, simuladores, medidores y otros equipos de laboratorio, observación y medida, las demandas de servicio y atención son muy diversas.

  • Variedad y libertad de cátedra

La cantidad de disciplinas atendidas en un campus universitario van desde las ciencias exactas y puras hasta las humanidades, historia y artes, pasando por la filosofía, las ingenierías, ciencias de la salud y muchísimas más. El núcleo del negocio, si bien focalizado en la educación superior, la investigación y la proyección social, es matizado por cada una de esas disciplinas.

Una reunión latinoamericana de directores TI

Por segundo año consecutivo, bajo el auspicio y la organización de RedCLARA, de la que forma parte RAICES en El Salvador, y con el patrocinio de importantes empresas privadas, se desarrolló en Lima la conferencia TICAL 2012, un espacio dedicado explícita y específicamente a los directores de TIC de las universidades de América Latina.

En esta edición, al igual que en la de 2011 en Panamá, se contó con ponentes y conferencistas de lugares tan distantes como Grecia, Italia, Estados Unidos, España y más. Igualmente importante resulta el espacio en el que los mismos directores TI de centros de estudios superiores de América Latina cuentan sus experiencias en temas específicos como planes de contingencia, servicios federados, acatamiento de normas internacionales, y se discuten con apertura dilemas comunes, como la inversión en más equipamiento o la contratación de servicios en la nube; el desarrollo de sistemas en casa o por terceros; la restricción o la apertura en el acceso a los servidores; el uso de plataformas de educación en línea en licencias propietarias o de código abierto, y varios temas más.

Las charlas y presentaciones desarrolladas en esta edición abarcaron los siguientes temas:

  • Gestión y gobernanza de las TIC para el desarrollo de la investigación: Rol y posicionamiento de las direcciones de TIC, planificación estratégica para el apoyo a la investigación.
  • Gestión del conocimiento. Aplicaciones para la generación, almacenamiento y distribución del conocimiento: plataformas de educación a distancia, repositorios digitales.
  • Servicios de apoyo a la e-Ciencia: Almacenamiento masivo/distribuido, transmisión de grandes archivos, Visualización, etc.
  • Adquisición Cooperativa: Ancho de Banda Internet Comercial, Servicios de Nube, Software como Servicio, etc.
  • Servicios Federados: Autentificación, EduRoam, Hemerotecas Digitales, Telefonía IP, Videoconferencias de Alta Calidad/ Telepresencia, Conferencia Web, entre otros.
  • Seguimiento y actualización de temáticas TICAL 2011.

Todas las presentaciones pueden ser descargadas en el sitio de RedCLARA destinado a TICAL 2012, y se encuentran disponibles en forma abierta.

Queda pendiente la fijación de la sede para TICAL 2013, después de que países como Colombia, Ecuador y Argentina expresaron su fuerte interés en servir como anfitriones para esta conferencia que, como alguien comentara en la misma, podría llegar a convertirse en una especie de EduCAUSE, la conferencia sobre educación superior y tecnologías en Estados Unidos.

Adicionalmente, se creó una comunidad en el portal de RedCLARA, llamada TICAL, para que los directores de TI universitarios de Latinoamérica puedan anotarse y compartir experiencias y consejos. Para ser parte de esta comunidad, la persona interesada debe ingresar al portal de RedCLARA con su propio usuario, lo que a su vez es posible solamente si la institución es miembro de la Red Nacional de Investigación y Educación del país respectivo, que a su vez es miembro de RedCLARA.

 

Computación en malla (grid computing) para la ciencia

Un gran aliado para la investigación científica en diversas disciplinas es, sin duda, el mayor poder computacional que se puede obtener de los equipos informáticos actuales, instalados en los grandes centros de producción del conocimiento a nivel mundial. El procesamiento de grandes volúmenes de datos permite, por ejemplo, la comprobación de hipótesis, el establecimiento de modelos matemáticos de fenómenos naturales, las simulaciones de eventos y, en algunos casos y con reservas, predicciones científicas sobre lo que puede suceder.

Por su parte, los computadores amplían su potencia cada día más, gracias a los avances en tecnologías y materiales usados en el diseño y fabricación de estas herramientas. Sin embargo, los computadores más poderosos, necesarios para realizar todas las complejas funciones, modelaciones y cálculos voluminosos que requiere la ciencia moderna, requieren inversiones bastante altas.

Como se dice popularmente, si dos cabezas piensan más que una, dos o más procesadores (llamados CPU, Unidad de Procesamiento Central, en la jerga técnica) podrán producir más en cantidad o en menor tiempo, los resultados necesarios de un trabajo de procesamiento intensivo en cálculos y procesos digitales.

Varios CPU juntos, más potencia

La tecnología para aprovechar el poder computacional de varios procesadores es conocida como “Grid computing” o Computación en Malla, y ha estado en operación por varios años, desarrollando mejores prácticas, programas de control, lenguajes de procesamiento en paralelo y otras técnicas para obtener el mayor provecho de ese principio de trabajo en cooperación.

Existen varias formas en que se pueden poner a trabajar varios computadores en conjunto. Algunas de ellas han llamado abiertamente a voluntarios alrededor del mundo para que donen el tiempo de sus computadoras caseras mientras no las están usando, para buscar un objetivo común. Uno de los ejemplos más conocido es el de los proyectos SETI (Búsqueda de Inteligencia Extra Terrestre, por sus siglas en inglés), dentro de los cuales, SETI@Home está siendo apoyado por millones de personas de todo el mundo mediante el uso de sus computadoras personales, que procesan la información capturada por el radiotelescopio de Arecibo, ubicado en Puerto Rico.

Igualmente, el proyecto Fold It invita a resolver problemas de la ciencia participando en juegos que utilizan las computadoras en casa, pero que realmente están ayudando a estudiar las proteínas, los aminoácidos y la forma en que éstos se comportan.

Una práctica en el mundo

Mientras en nuestro país se debaten con mayor frecuencia temas relacionados con los ámbitos político, económico y social, el mundo afuera sigue avanzando en los campos de la tecnología y la ciencia, y no se detiene a esperar a nadie.

Así, hay áreas del saber que han sido y son poco exploradas en varios países de Latinoamérica, entre ellos El Salvador, y sin embargo podrían traer grandes beneficios en la solución de los problemas más acuciosos en distintas disciplinas. El desarrollo de la ciencia, sobre todo aquélla que requiere el almacenamiento, procesamiento y transmisión de grandes volúmenes de información y datos, es una apuesta pendiente entre nuestros países, pues sus frutos, además de no estar siempre garantizados, ocurren solamente en el mediano o largo plazo.

El proyecto GISELA (Grid Initiatives for e-Science virtual communities in Europe and Latin America), por ejemplo, como su nombre lo indica, intenta agrupar y lograr la colaboración entre las “Iniciativas de computación en mallas para las comunidades virtuales para la e-Ciencia en Europa y Latinoamérica”.

Bajo esta iniciativa, es posible enlazar y posibilitar que trabajen en colaboración distintas instalaciones de computadores en malla, operando en diferentes partes de mundo. Entre otros logros, han creado un portal, el GISELA Science Gateway, en el que se presentan 8 aplicaciones en malla, listos para su aprovechamiento por 4 tipos de Comunidades Virtuales de Investigación (VRC, en inglés):

1. Patrimonio cultural

  • Proyecto ASTRA: reconstrucción de sonido de instrumentos antiguos

2. Sistemas Industriales

  • Industry@Grid: herramienta para planificación de procesos industriales y cadenas de aprovisionamiento usando métodos matemáticos.

3. Bioinformática y Ciencias de la Vida

  • ClustalW: herramienta para alinear múltiples proteínas o secuencia de nucleótidos.
  • GATE: simulaciones numéricas en imágenes médicas.
  • Phylogenetics (MrBayes): estimación Bayesiana de la filogenia.

4. Estadísticas y Matemáticas

  • Octave: lenguaje para cálculos numéricos
  • R: computación estadística y gráficas.
  • DPPM: problema de fecha límite en gestión de proyectos.

 

 

Las reglas (actuales) del juego mundial

Los jugadores más exitosos en cualquier deporte o actividad lúdica competitiva son aquéllos que, además de conocer las reglas formales del juego en cuestión, también están mejor preparados, entrenados y capacitados, y además son expertos en la forma en que se desarrollan las actividades que componen el certamen.

Por otro lado, si las reglas y condiciones de un juego cambian, es muy importante para los participantes mantenerse al tanto sobre las nuevas perspectivas que se dan en el juego si quieren conservar o mejorar su posición.

Haciendo la analogía entre los juegos y el ambiente mundial, se puede explicar que la economía global contemporánea, debido en buena parte a la explosiva y contundente inclusión de las telecomunicaciones posibilitadas por la tecnología, ha cambiado, y lo continúa haciendo, las formas bajo las que se hacen los negocios, el comercio y el desarrollo de las ideas innovadoras.

10 nuevas reglas

De acuerdo a Ori Brafman y Rod Beckstrom, autores de “The starfish and the spider”, un tratado sobre las organizaciones que actualmente operan sin un grupo líder único e identificado, las reglas actuales del juego de la economía mundial son diferentes a las que prevalecían apenas unos años atrás.

Regla 1: Diseconomías de escala

A diferencia del pasado, crear una compañía, colocarla en Internet y hacer negocios por medio de la red, es hoy relativamente barato y fácil de operar y mantener. Los costos son bajos, y todo depende del alcance que se logre dentro de la red. Comprueban esta regla, ejemplos como Skype, eMule, y CraigList, operaciones que comenzaron con poco personal, pocos gastos de mercadeo y publicidad y lograron llegar lejos.

Regla 2: El efecto de la red

Cada nuevo miembro que se agrega a una red le agrega valor a la misma. Las redes que se construyeron en forma física, como las de teléfonos, aparatos de fax, o servicio de energía eléctrica, suponían grandes inversiones que no podían ser realizadas por una sola persona. Empresas como eBay o Mercado Libre basan e incrementan su valor con la cantidad de fieles clientes que mantienen.

Regla 3: El poder del caos

Tradicionalmente, el orden y los arreglos sistemáticos deben prevalecer en una empresa para que sea exitosa. En muchos casos, sin embargo, el desorden y un poco de caos ayuda a fomentar la creatividad y la innovación, a propiciar la libertad de inventiva, sin ataduras convencionales, dando paso a conceptos que se vuelven atractivos a muchas personas y, por tanto, pueden generar importantes negocios.

Regla 4: El conocimiento en la periferia

En las organizaciones y empresas, el conocimiento y la experiencia se encuentran diseminados y, con frecuencia, los mejores consejos, ideas, opiniones y principios de solución de problemas provienen de las personas que están en mayor contacto con la línea de producción o atendiendo directamente a los clientes. Empresas como Toyota, IBM y Sun han buscado y obtenido buenas propuestas de mejora al desarrollar programas de consulta sistemática a sus empleados de primera línea.

Regla 5: Todos quieren contribuir

En forma natural, muchas personas, en su calidad de clientes, usuarios, miembros de una comunidad, proveedores, están en la mejor disposición de aportar sus opiniones sin esperar nada a cambio. Diseñar mecanismos para recoger esos aportes es importante hoy en día. Amazon, Wikipedia y otras empresas contemporáneas basan su atractivo en los aportes que muchas personas realizan gratuitamente a sus bases de datos.

Regla 6: La respuesta de Hidra

Tal como la bestia mitológica griega Hidra, que al sufrir el decapitamiento de una de sus cabezas, hacía surgir dos nuevas cabezas en su lugar, así pueden operar algunas organizaciones en la actualidad. Las organizaciones descentralizadas, al no tener una clara estructura de liderazgo única, tienen la capacidad de reponerse ante un ataque a un círculo o una versión de su implementación. Cuando iniciativas como Napster fueron clausuradas, aparecieron opciones como Kazaa y eMule.

Regla 7: Los catalizadores

En lugar de líderes convencionales como gerentes, administradores, presidentes y otros gestores, las organizaciones que cuentan con catalizadores tienen más probabilidades de mantenerse operativas y activas por más tiempo. Los catalizadores constituyen otra forma de ejercer el liderazgo.

Regla 8: Los valores son la organización

Lo que mueve a las organizaciones descentralizadas es su ideología, sus ideales y sus valores. Más que las ganancias, o el prestigio, o el poder, lo que une a estas personas es la comunidad de objetivos. Por ejemplo, la organización Animal Liberation Front (el Frente de Liberación Animal) concentra a sus seguidores por el común amor por los animales; los Alcohólicos Anónimos surgieron porque consideraron que era más eficiente ayudarse unos a otros, y eso hace que esas organizaciones se mantengan más tiempo.

Regla 9: Mida, supervise y gestione

En las nuevas economías debe mantenerse el criterio de medir, supervisar y administrar, pero no es tan importante contar con un número exacto, por ejemplo, de miembros en la organización, o de clientes o usuarios de nuestros servicios. Es más relevante saber si van avanzando los distintos grupos o círculos locales, si la red está creciendo en tamaño y alcance, etc.

Regla 10: Aplane o sea aplanado

La descentralización del poder y la jerarquía en las organizaciones seguirá desarrollándose. La perspectiva híbrida que han tomado ya empresas como General Motors, Sun e IBM, entre otras, les permite sostenerse en el tiempo. La proliferación de Internet en el mundo no solamente ha facilitado la comunicación, sino también ha contribuido a modificar la cultura empresarial, las mejores prácticas comerciales y administrativas, y este cambio no debe ser ignorado por cualquier persona que quiera destacarse en la actual economía mundial.