¿Por qué nos debería importar el cambio a IPv6?

Quizá hemos escuchado algo sobre el cambio de direcciones en Internet. Quizá no. El nuevo diseño del protocolo de direcciones IP, conocido como IPv6, inició en 1993, y se comenzó a desplegar en 1999.

Desde esas fechas se anticipaba que la cantidad de direcciones que se pueden lograr con la actual versión 4, siendo un poco más de 4 mil millones, no iba a ser suficiente a medida que aumentaban los usuarios de Internet en el mundo, las aplicaciones desarrolladas, la cantidad y variedad de dispositivos utilizados.

De hecho, una evidencia de lo reducido y escaso que se ha vuelto el espacio IPv4 es el uso bastante diseminado de la tecnología NAT (Traducción de Direcciones de Red, por sus siglas en inglés), que dicho en forma sencilla logra canalizar varias direcciones privadas a través de una dirección IP pública. Otro reflejo de esta limitación es la relativa dificultad que tienen la mayoría de usuarios caseros para obtener direcciones públicas para publicar sus propios sitios web.

Fuente: Hurricane Electrics

La mayor parte de grandes empresas de contenido, conexión a Internet y fabricación de dispositivos de comunicación ya están activamente trabajando en el despliegue del nuevo protocolo. Los Registros de Internet Regionales (RIR), como LACNIC, también están facilitando y propiciando este cambio.

Hechos sobre IPv4 e IPv6

Hay algunos datos interesantes sobre las direcciones y los protocolos en uso actualmente (las versiones 4 y 6):

Las direcciones IPv4 se están acabando. En febrero de 2011, el repositorio central de direcciones IPv4 de IANA entregó los últimos bloques a los registros regionales. De estos, APNIC, el registro de Asia Pacífico, ya entregó sus últimos bloques, y la demás regiones están en ese camino.

Fuente: LACNIC

En un futuro cercano, esto significa que se dejarán de tener nuevas conexiones, que para los proveedores de conectividad (ISP) se interpreta como dejar de tener nuevos clientes. Esto es el verdadero costo para los proveedores que no echen a andar sus estrategias de transición a la brevedad.

La anterior excusa de que no hay contenido accesible en IPv6 dejó de ser válida el pasado 6 de junio, pues en esa fecha muchos de los proveedores de contenido más relevantes a nivel mundial han dejado accesible sus sitios a través de IPv6. Esto incluye a Facebook, Google, Yahoo!, Akamai, Wikipedia, Twitter, y muchos más.

Desde una perspectiva técnica, existen problemas con el uso de los NAT, que han sido soslayados hasta el momento, pero que IPv6 resolverá definitivamente:

  • Usando NAT se está alterando el modelo original del diseño de Internet de comunicar un dispositivo con otro en forma directa y dedicada.
  • Las listas de control de acceso, al bloquear a los “malos”, deben forzosamente bloquear a los “buenos”, ya que todos vienen con una misma dirección a través de un NAT.
  • Las cajas NAT tienen limitaciones respecto a la cantidad de sesiones.
  • Con los NAT, clientes de de distintos países salen a Internet con una misma dirección, lo que impide identificar el país o la región de donde proviene cada usuario. Cualquier política geo-referenciada de proveedores como Google, Twitter y otros, que las tienen, carece completamente de validez.
  • Se dan problemas con los juegos en Internet, así como con cualquier aplicación que requiera direcciones IP públicas directas y accesibles, ya que el usuario no controla el NAT.
  • Con IPv6, existirá la posibilidad de conectar un dispositivo directamente con otro dispositivo, obviando los NAT, en forma completamente dedicada.
  • Por ejemplo, el 75% del código de programación de Skype se dedica a pasar y resolver problemas derivados del uso de NAT y sólo el 25% del código se concentra en hacer lo que Skype hace.

La estrategia con IPv6

Es importante cambiar la mentalidad al pensar en IPv6.

No se debe dar una dirección por usuario o por servidor. Ahora se pueden dar redes completas, pues las direcciones son casi ilimitadas.

La entrega mínima a cada usuario final de IPv6 es /48, que equivale a 65 mil subredes, cada una de 10 elevado a la 64ª potencia; es decir, CADA usuario final (universidades, instituciones de gobierno, empresas grandes)  tendrá acceso a muchísimas veces más que el universo completo de direcciones actuales en IPv4.

Fuente: RIPE

No se recomiendan las soluciones de túnel para producción, solamente para pruebas. La estrategia correcta es pensar en el “Dual Stack”, es decir, equipos que puedan manejar ambos protocolos, mientras dure el proceso de transición, manteniendo en el horizonte el uso de IPv6 solamente.

Algunas de las recomendaciones generales para implementar IPv6 son, de acuerdo a LACNIC:

  • Mantener IPv4 como está
  • Tener Dual Stack
  • No establecer túneles
  • Tener tránsito IPv6 nativo
  • Tener una IP por host (no tener NAT)
  • Hacer un plan de numeración para IPv4
  • Gestionar la seguridad, monitorear y registrar los eventos en IPv6

Y los pasos que la misma organización sugiere, dicho muy sencillamente, son:

  • Investigación inicial de tecnología
  • Entrenamiento de personal
  • Desarrollar una estrategia de adopción de IPv6
  • Análisis de Infraestructura
  • Desarrollar arquitectura y diseño de IPv6 detallados
  • Desarrollo, testeo y modo piloto
  • Desarrollar política de seguridad, procedimientos, etc.
  • Implementación masiva y operación en producción

 

Una nueva Política Nacional ¿Veremos sus objetivos realizados?

El 12 de julio se presentó oficialmente la nueva Política Nacional de Innovación, Ciencia y Tecnología, producto del trabajo colaborativo entre el Ministerio de Educación, a través del Viceministerio de Ciencia y Tecnología, el Ministerio de Economía y la Secretaría Técnica de la Presidencia, el CONACYT y algunas instituciones y personas, que brindaron sus aportes a la misma, a través de la consulta pública que se habilitó.

En forma errónea, se dijo en alguno de los mensajes que se emitieron que ésta era la primera vez que en El Salvador se lograba y presentaba una política nacional como la que se lanzaba en ese momento. Una lista incompleta de las iniciativas similares en nuestro país, algunas de las cuales han culminado en documentos formales de política, ha sido presentada en este mismo espacio hace poco tiempo.

También se enfatizó el hecho de que se busca que ésta, y otras propuestas similares en otros ámbitos, se conviertan en políticas de Estado, trascendiendo las gestiones particulares de uno y otro gobierno. Ojalá esta buena intención se convierta en realidad, pues en forma similar ya han existido políticas, como la de Ciencia, Tecnología e Innovación, presentada por el CONACYT en 2006, o el Plan 2021, lanzado en marzo de 2005, que buscaba proveer un horizonte a largo plazo a la educación nacional, que han sido soslayadas y reemplazadas por otras políticas de Estado.

Independientemente de sus antecedentes y de las otras experiencias que hemos vivido en el país respecto a la posibilidad de establecer y perseguir metas a largo plazo, sobre todo en áreas tan poco apoyadas como son la investigación, la ciencia, la innovación y la tecnología, sigue siendo muy importante, y un elemento estratégico para el desarrollo, que todos apoyemos estas iniciativas.

Los elementos de la Política

La orientación de esta Política Nacional de Innovación, Ciencia y Tecnología (PNICT) es definida en su introducción: “Es así como esta política tiene a la base el fomento a la producción de conocimiento aplicado al sector productivo; la formación técnica profesional orientada a las demandas de las áreas estratégicas y la vinculación entre los sectores académicos, de investigación y privado, y la definición de prioridades en áreas estratégicas de trabajo”.

De acuerdo a la PNICT, los cinco objetivos y las estrategias definidas para alcanzarlos son ambiciosos, pero comprenden los requerimientos mínimos, si es que la apuesta es seria.

A. Generar bienes públicos y fortalecer el entorno habilitante para la I+D+i

  1. Creación y fortalecimiento de la institucionalidad del Sistema Nacional de Innovación, Ciencia y Tecnología.
  2. Creación y fortalecimiento de infraestructura científica y tecnológica necesaria para el desarrollo de actividades de ICT.
  3. Diseño e implementación de los mecanismos para la financiación de bienes y servicios innovadores.
  4. Establecer alianzas regionales e internacionales para la promoción de la investigación, la transferencia tecnológica y el desarrollo de la I+D+i.

B. Fortalecer la investigación científica, el desarrollo tecnológico y la innovación precompetitiva (I+D+i)

  1. Fortalecimiento de la formación de capital humano avanzado para la investigación científica, tecnológica y de innovación vinculada al desarrollo productivo.
  2. Fortalecimiento de la investigación científica en universidades y centros de I+D+i.

C. Apoyar la innovación empresarial para el incremento de su productividad y su competitividad.

  1. Fomento de actividades de ICT para el desarrollo de productos, procesos y servicios.
  2. Desarrollo de mecanismos de apoyo a estrategias empresariales basadas en innovación.

D. Estimular el emprendimiento innovador.

  1. Mejora del entorno y provisión de servicios financieros y no financieros.

E. Difundir y promover la adopción tecnológica y la absorción de I+D+i en la sociedad salvadoreña.

  1. Difusión, promoción y adopción tecnológica.
  2. Difusión, promoción y apropiación de la I+D+i.

Lo esperado y lo pendiente

El lanzamiento de la PNICT es un buen paso. Aunque la misma señala que “La implementación de la Política Nacional de ICT es responsabilidad del sector público salvadoreño”, también incluye un párrafo que establece que “se requiere la participación de otras instituciones del sector público, del empresariado nacional, de la academia y de la sociedad civil en general”.

En otra entrada en este espacio, en marzo de 2012, el tema de esta política fue abordado y contó con varios aportes de lectores, que pueden ser críticas y aportes valiosos para un tema que, en general, no se halla tan difundido en nuestra población: la preocupación sistemática por el desarrollo de la ciencia, la investigación y el uso de la tecnología, como motores de la productividad, la innovación y la generación de riqueza.

Las instituciones que se encargarán de materializar esta política, según la misma, son todas nuevas: un Comité Interministerial para la Innovación, Ciencia y Tecnología (CIICT), un Comité Consultivo, una Unidad Coordinadora Interministerial de Innovación, Ciencia y Tecnología, las  Unidades Ministeriales en Innovación, Ciencia y Tecnología y un Observatorio Nacional de Ciencia, Tecnología e Innovación.

En esta estructura, el único espacio donde los demás sectores, además del público, pueden participar, es el Consejo Consultivo, y aun ahí, su rol no es vinculante. De acuerdo al documento, este Consejo “validará y propondrá lineamientos de políticas, planes y programas e instrumentos en consistencia con las directrices del CIICT”.

Triángulo de Sábato

Entonces, si bien el gobierno debe desempeñar un importante rol en este tema, aun está pendiente aceptar y definir una mayor y más cercana relación entre estos organismos a ser creados y los demás sectores de la sociedad: académico, empresarial y profesional. El desarrollo nacional por la vía del conocimiento es una tarea de todos, y esta colaboración e interrelación debe quedar afirmada en una política nacional como ésta.

Recordemos el triángulo de Sábato, y esperemos que esta ausencia pueda ser subsanada de la mejor manera.

 

TICAL 2012: 2ª reunión de Directores TI de universidades de América Latina

Aunque a veces se soslaya, los directores de tecnología informática de las universidades de Latinoamérica desempeñan las mismas funciones, y tienen exactamente las mismas dificultades y desafíos que los gerentes de informática de las demás empresas, privadas y públicas, de todos los sectores de la actividad productiva.

Deben mantenerse atentos a la evolución de la tecnología, así como a las tendencias comerciales y tecnológicas del entorno, tal como cualquier gestor de los recursos tecnológicos de una empresa, nacional o transnacional; negociar con proveedores, convencer a sus juntas directivas, preparar presupuestos y controlar gastos, seleccionar, capacitar y certificar a su personal, diseñar y desarrollar sistemas, custodiar los servidores y las bases de datos, garantizar la seguridad informática y mantener la operación corriendo con el menor tiempo fuera de servicio, entre otras actividades.

Por otro lado, a diferencia de sus colegas, los directores TI de las universidades cuentan entre sus usuarios a los estudiantes universitarios, docentes, investigadores y administrativos, y esto conlleva algunas diferencias con la mayoría de empresas, entre las que se puede considerar:

  • Cantidad de la población estudiantil y docente

Hay universidades con decenas de miles de estudiantes, con diversas necesidades y plataformas de computación, que hacen uso de los servicios TI, dentro y fuera del campus.

  • Heterogeneidad de servicios y aplicaciones

Desde las aplicaciones financieras, administrativas y administrativas-académicas, hasta la educación en línea y el uso de computadores, simuladores, medidores y otros equipos de laboratorio, observación y medida, las demandas de servicio y atención son muy diversas.

  • Variedad y libertad de cátedra

La cantidad de disciplinas atendidas en un campus universitario van desde las ciencias exactas y puras hasta las humanidades, historia y artes, pasando por la filosofía, las ingenierías, ciencias de la salud y muchísimas más. El núcleo del negocio, si bien focalizado en la educación superior, la investigación y la proyección social, es matizado por cada una de esas disciplinas.

Una reunión latinoamericana de directores TI

Por segundo año consecutivo, bajo el auspicio y la organización de RedCLARA, de la que forma parte RAICES en El Salvador, y con el patrocinio de importantes empresas privadas, se desarrolló en Lima la conferencia TICAL 2012, un espacio dedicado explícita y específicamente a los directores de TIC de las universidades de América Latina.

En esta edición, al igual que en la de 2011 en Panamá, se contó con ponentes y conferencistas de lugares tan distantes como Grecia, Italia, Estados Unidos, España y más. Igualmente importante resulta el espacio en el que los mismos directores TI de centros de estudios superiores de América Latina cuentan sus experiencias en temas específicos como planes de contingencia, servicios federados, acatamiento de normas internacionales, y se discuten con apertura dilemas comunes, como la inversión en más equipamiento o la contratación de servicios en la nube; el desarrollo de sistemas en casa o por terceros; la restricción o la apertura en el acceso a los servidores; el uso de plataformas de educación en línea en licencias propietarias o de código abierto, y varios temas más.

Las charlas y presentaciones desarrolladas en esta edición abarcaron los siguientes temas:

  • Gestión y gobernanza de las TIC para el desarrollo de la investigación: Rol y posicionamiento de las direcciones de TIC, planificación estratégica para el apoyo a la investigación.
  • Gestión del conocimiento. Aplicaciones para la generación, almacenamiento y distribución del conocimiento: plataformas de educación a distancia, repositorios digitales.
  • Servicios de apoyo a la e-Ciencia: Almacenamiento masivo/distribuido, transmisión de grandes archivos, Visualización, etc.
  • Adquisición Cooperativa: Ancho de Banda Internet Comercial, Servicios de Nube, Software como Servicio, etc.
  • Servicios Federados: Autentificación, EduRoam, Hemerotecas Digitales, Telefonía IP, Videoconferencias de Alta Calidad/ Telepresencia, Conferencia Web, entre otros.
  • Seguimiento y actualización de temáticas TICAL 2011.

Todas las presentaciones pueden ser descargadas en el sitio de RedCLARA destinado a TICAL 2012, y se encuentran disponibles en forma abierta.

Queda pendiente la fijación de la sede para TICAL 2013, después de que países como Colombia, Ecuador y Argentina expresaron su fuerte interés en servir como anfitriones para esta conferencia que, como alguien comentara en la misma, podría llegar a convertirse en una especie de EduCAUSE, la conferencia sobre educación superior y tecnologías en Estados Unidos.

Adicionalmente, se creó una comunidad en el portal de RedCLARA, llamada TICAL, para que los directores de TI universitarios de Latinoamérica puedan anotarse y compartir experiencias y consejos. Para ser parte de esta comunidad, la persona interesada debe ingresar al portal de RedCLARA con su propio usuario, lo que a su vez es posible solamente si la institución es miembro de la Red Nacional de Investigación y Educación del país respectivo, que a su vez es miembro de RedCLARA.

 

Computación en malla (grid computing) para la ciencia

Un gran aliado para la investigación científica en diversas disciplinas es, sin duda, el mayor poder computacional que se puede obtener de los equipos informáticos actuales, instalados en los grandes centros de producción del conocimiento a nivel mundial. El procesamiento de grandes volúmenes de datos permite, por ejemplo, la comprobación de hipótesis, el establecimiento de modelos matemáticos de fenómenos naturales, las simulaciones de eventos y, en algunos casos y con reservas, predicciones científicas sobre lo que puede suceder.

Por su parte, los computadores amplían su potencia cada día más, gracias a los avances en tecnologías y materiales usados en el diseño y fabricación de estas herramientas. Sin embargo, los computadores más poderosos, necesarios para realizar todas las complejas funciones, modelaciones y cálculos voluminosos que requiere la ciencia moderna, requieren inversiones bastante altas.

Como se dice popularmente, si dos cabezas piensan más que una, dos o más procesadores (llamados CPU, Unidad de Procesamiento Central, en la jerga técnica) podrán producir más en cantidad o en menor tiempo, los resultados necesarios de un trabajo de procesamiento intensivo en cálculos y procesos digitales.

Varios CPU juntos, más potencia

La tecnología para aprovechar el poder computacional de varios procesadores es conocida como “Grid computing” o Computación en Malla, y ha estado en operación por varios años, desarrollando mejores prácticas, programas de control, lenguajes de procesamiento en paralelo y otras técnicas para obtener el mayor provecho de ese principio de trabajo en cooperación.

Existen varias formas en que se pueden poner a trabajar varios computadores en conjunto. Algunas de ellas han llamado abiertamente a voluntarios alrededor del mundo para que donen el tiempo de sus computadoras caseras mientras no las están usando, para buscar un objetivo común. Uno de los ejemplos más conocido es el de los proyectos SETI (Búsqueda de Inteligencia Extra Terrestre, por sus siglas en inglés), dentro de los cuales, SETI@Home está siendo apoyado por millones de personas de todo el mundo mediante el uso de sus computadoras personales, que procesan la información capturada por el radiotelescopio de Arecibo, ubicado en Puerto Rico.

Igualmente, el proyecto Fold It invita a resolver problemas de la ciencia participando en juegos que utilizan las computadoras en casa, pero que realmente están ayudando a estudiar las proteínas, los aminoácidos y la forma en que éstos se comportan.

Una práctica en el mundo

Mientras en nuestro país se debaten con mayor frecuencia temas relacionados con los ámbitos político, económico y social, el mundo afuera sigue avanzando en los campos de la tecnología y la ciencia, y no se detiene a esperar a nadie.

Así, hay áreas del saber que han sido y son poco exploradas en varios países de Latinoamérica, entre ellos El Salvador, y sin embargo podrían traer grandes beneficios en la solución de los problemas más acuciosos en distintas disciplinas. El desarrollo de la ciencia, sobre todo aquélla que requiere el almacenamiento, procesamiento y transmisión de grandes volúmenes de información y datos, es una apuesta pendiente entre nuestros países, pues sus frutos, además de no estar siempre garantizados, ocurren solamente en el mediano o largo plazo.

El proyecto GISELA (Grid Initiatives for e-Science virtual communities in Europe and Latin America), por ejemplo, como su nombre lo indica, intenta agrupar y lograr la colaboración entre las “Iniciativas de computación en mallas para las comunidades virtuales para la e-Ciencia en Europa y Latinoamérica”.

Bajo esta iniciativa, es posible enlazar y posibilitar que trabajen en colaboración distintas instalaciones de computadores en malla, operando en diferentes partes de mundo. Entre otros logros, han creado un portal, el GISELA Science Gateway, en el que se presentan 8 aplicaciones en malla, listos para su aprovechamiento por 4 tipos de Comunidades Virtuales de Investigación (VRC, en inglés):

1. Patrimonio cultural

  • Proyecto ASTRA: reconstrucción de sonido de instrumentos antiguos

2. Sistemas Industriales

  • Industry@Grid: herramienta para planificación de procesos industriales y cadenas de aprovisionamiento usando métodos matemáticos.

3. Bioinformática y Ciencias de la Vida

  • ClustalW: herramienta para alinear múltiples proteínas o secuencia de nucleótidos.
  • GATE: simulaciones numéricas en imágenes médicas.
  • Phylogenetics (MrBayes): estimación Bayesiana de la filogenia.

4. Estadísticas y Matemáticas

  • Octave: lenguaje para cálculos numéricos
  • R: computación estadística y gráficas.
  • DPPM: problema de fecha límite en gestión de proyectos.