Archivo de la categoría: Desde el aula

Tecnologías móviles en educación

Los objetivos son similares: reducir la brecha digital, facilitar el aprendizaje, extender la cobertura para incluir las zonas rurales y las menos atendidas, preparar a los niños y jóvenes para seguir aprendiendo, desarrollar las competencias necesarias para el siglo XXI, y más. Varias iniciativas, proyectos e investigaciones buscan lograr metas en algunas de estas áreas, haciendo uso de las posibilidades, avances y configuraciones tecnológicas en el campo de las telecomunicaciones, y aprovechando las reducciones de tamaño y precio de los dispositivos electrónicos.

Muchas personas trabajan constantemente por esos ideales, en distintos lugares del mundo, y desde sus propias disciplinas. Hay buenas experiencias, lecciones aprendidas y aspectos a mejorar, y afortunadamente existen varias iniciativas que se pueden y deben evaluar en países como el nuestro, para contribuir a la mejora de los niveles de educación y desarrollo humano, además de proveer las competencias necesarias y una mejor posibilidad de inserción en el mundo productivo.

En este sentido, y con sólo observar a nuestro alrededor, es evidente que la proliferación de los dispositivos de comunicación móviles ha ido cada vez en aumento, tanto en El Salvador como en el resto del mundo. Los teléfonos celulares, como parte de esta industria, tienen suficientes ventajas para los ciudadanos como para adquirir hasta más de un aparato (1.21 por persona durante 2008, para ser más precisos), como lo reflejan las gráficas más recientes publicadas por la SIGET.

Fuente: SIGET

Fuente: SIGET
Fuente: SIGET

OLPC y ClassMate

Considerando este “milagro móvil” contemporáneo, las pequeñas computadoras desarrolladas con los nombres de OLPC XO (One Laptop Per Child modelo XO) y ClassMate representan dos de los dispositivos móviles más conocidos en los años recientes que buscan apoyar el proceso educativo con tecnología informática y de telecomunicaciones, sobre todo para niños, niñas y jóvenes en lugares remotos.

Además de sus diseños y características particulares, la idea ha sido poder fabricarlas a precios relativamente bajos, de forma que un gobierno, una ONG o una empresa privada, por ejemplo, puedan financiar su difusión en las regiones a su cargo, aprovechando las economías de escala al producirlas.

Las computadoras denominadas OLPC surgieron de las ideas y planteamientos de Nicholas Negroponte, del Media Lab del Instituto Tecnológico de Massachussets (MIT). Como lo establece su sitio web, “Nicholas Negroponte fundó la OLPC partiendo de un núcleo de veteranos del Media Lab, que creció rápidamente incorporando al grupo personas dedicadas y excepcionalmente talentosas provenientes de la enseñanza, la industria, las artes, los negocios y la comunidad open-source”.

Por su parte, la ClassMate PC es una pequeña computadora, cuyo procesador fue diseñado por Intel, para dar una respuesta al potencial mercado que la OLPC habría comenzado a generar en 2006. Surgió a partir del programa “World Ahead” de Intel, cuya motivación era realizar productos baratos y eficientes destinados a estudiantes.

La ClassMate
ClassMate

Es posible realizar una comparación de ambas (y otras) propuestas, tanto desde la perspectiva estrictamente de prestaciones tecnológicas, así como de la oferta en software, principios y prácticas pedagógicas asociadas a cada dispositivo, y seguramente encontraremos ventajas y aspectos por mejorar en cada caso.

TeacherMate: la propuesta de Stanford

Dentro de esta misma tendencia, recientemente hemos conocido en El Salvador otra posibilidad tecnológica para apoyar los objetivos de los programas educativos. Se trata de un dispositivo móvil de un costo cercano a los $50, llamado TeacherMate, y que fuera presentado en el país por el doctor Paul Kim, de la Universidad de Stanford, en un evento organizado por quien será su aliado en El Salvador, la Universidad Tecnológica.

Teachermate
Teachermate

Por supuesto, al igual que con sus proyectos pares, mencionados antes, el dispositivo no es más que un elemento dentro de una estrategia específica para intentar lograr los objetivos de acercar las posibilidades de aprendizaje a niños y niñas de menos posibilidades económicas. Para el dr. Kim, el objetivo de este esfuerzo es “promover y desarrollar aplicaciones y juegos móviles que faculten a 6,7 millones de personas en la tierra. En esta misión, nos centramos en la alfabetización temprana, la matemática, la salud, los derechos humanos, la estrategia de potenciación por el auto-aprendizaje, el desarrollo de contenidos y la difusión de las mejores prácticas”.

El planteamiento pedagógico que acompaña al dispositivo TeacherMate es el PocketSchool, la “Escuela de Bolsillo”, que habla de un currículo elástico (adaptable al ritmo de aprendizaje de los niños), y de un aprendizaje basado en juegos.

El TeacherMate utiliza una versión del sistema operativo de código abierto Linux, y se programa con Open Flash, también de código abierto, lo que reduce los costos de llevarlo a la operación en escuelas reales, y permite la flexibilidad necesaria para adaptarlo a distintos ambientes (se está utilizando en países tan diversos como México, Ruanda, Estados Unidos, India).

¿Y en El Salvador?

El Ministerio de Educación, por medio del Viceministerio de Ciencia y Tecnología y la Gerencia de Tecnologías Educativas, está desarrollando una experiencia piloto con las computadoras OLPC XO, habiendo seleccionado para ello algunas escuelas públicas rurales en la localidad de Nombre de Jesús, en el departamento de Chalatenango, induciendo y preparando a los docentes de estas escuelas para que sepan relacionarse con estos dispositivos, y puedan trabajar con sus estudiantes, que harán uso de las mismas computadoras, aprovechándolas en el proceso de enseñanza aprendizaje.

Al mismo tiempo, desarrollarán otra experiencia piloto con las TeacherMate, contando con el acompañamiento del equipo del profesor Kim, y el trabajo conjunto con la Universidad Tecnológica. Esta experiencia será conducida en una escuela de Nueva Concepción, también en Chalatenango. En este caso, se busca que estudiantes de la universidad desarrollen los programas adecuados para nuestro país, siguiendo la filosofía planteada por sus creadores, pero cuidando su adaptación a nuestro medio.

A partir de estas y otras experiencias en el campo, con escuelas, docentes y alumnos reales, salvadoreños, en zonas menos favorecidas, habrá oportunidad de evaluar los resultados, rectificar lo que no vaya bien, adaptar la programación, y seguramente será necesario resolver una serie de problemas, inconvenientes y situaciones inesperadas. Lo importante es hacerlo.

Conducir estas experiencias de una forma profesional, responsable y sistemática contribuirá sin duda a establecer hasta dónde las tecnologías de información y comunicaciones, y sobre todo las móviles, realmente pueden hacer una diferencia en países como el nuestro.

Estrategia nacional en una cápsula 3 x 15

En la entrada anterior hablamos del documento que la UNESCO ha preparado y publicado, recopilando los lineamientos generales que los estados podrían seguir, como una lista de verificación, para diseñar y establecer políticas nacionales en los temas relacionados con la sociedad del conocimiento, y que se puede encontrar en una Plantilla para la formulación de Políticas Nacionales de Sociedad de la Información.

Es un documento pragmático, puesto que sintetiza los grandes aspectos que una política de estado en los temas de sociedad de información debería contener, definiendo 3 grandes objetivos, y asociando a éstos una cantidad de áreas de acción, dentro de las cuales se pueden definir proyectos, iniciativas y acciones concretas, que pueden variar en cada país, y que pueden ser conducidas por diversos actores de la sociedad, de cualquiera de los sectores de la vida nacional.

Al leer las áreas de acción, todos podemos pensar en proyectos que se han realizado, o al menos iniciado, en nuestro país, que podrían ser clasificados en alguna de las áreas. La tarea más importante no es la definición de esas ideas, sino la concreción, el apoyo político y financiero y, sobre todo, la continuidad de estos esfuerzos.

A continuación el esquema del Alcance Básico de una Política Nacional de la Sociedad de la Información, de acuerdo a esta publicación.

3 objetivos y 15 áreas de acción

Objetivo 1: Democratizar el acceso

Para poner al alcance de todas las personas, los medios de acceso y uso de la información y tecnologías de información y comunicación, garantizar el disfrute de los derechos de los ciudadanos, el fomento de la educación, el desarrollo local, la erradicación de la pobreza, la equidad de género, la inclusión digital, el acceso universal público, la transparencia y eficiencia, y la gobernanza participativa.

Bajo este objetivo, UNESCO identifica 10 áreas de acción:

Áreas de acción

Descripción

Infraestructura de comunicaciones e información

Proporcionar y desarrollar el acceso físico a la infraestructura de información y comunicación a través de planes y modelos sostenibles. Considerar diversas alternativas tecnológicas (cable e inalámbrico) tales como banda ancha, “Wimax”, “bluetooth”, y otros.

Acceso a información

Garantizar un acceso amplio a la información de la administración pública y otros sectores sociales del Estado, y acerca del patrimonio cultural, histórico, científico y educativo a través de diferentes medios y formatos.

Costos accesibles

Garantizar costos bajo para acceder a las tecnologías de información y comunicación para todos los grupos sociales, especialmente los más vulnerables, a través de incentivos para la competencia, y mediante la regulación. Los gobiernos pueden ayudar a reducir los costos de acceso a las TIC mediante la inversión en infraestructura de información y comunicación. Participar activamente en la creación de capacidades de banda ancha por medio de redes troncales regionales.

Sistemas nacionales de información

Facilitar y generar sistemas para recopilar, ordenar, almacenar y difundir
información acerca de diferentes disciplinas tales como la estadística, la cartografía, la meteorología geoespacial, la ciencia y la tecnología, entre otras, y diferentes sectores, como agricultura, pesca, educación, salud bovina, etc.

Aplicaciones y software

Promover y fomentar el desarrollo de aplicaciones y software para satisfacer
las demandas nacionales con parámetros altos de calidad, eficacia, accesibilidad e interoperabilidad, especialmente en los ámbitos de educación, salud, gobernabilidad, gestión ambiental, justicia y otros.

Bibliotecas públicas y fortalecimiento de la lectura

Garantizar el desarrollo y la creación de bibliotecas, tanto digitales como
convencionales, la promoción de la lectura y el valor de los libros mediante el fomento de producción y distribución a través de planes nacionales de lectura.

Difusión de información científica y tecnológica

Reforzar los organismos públicos que trabajan en ciencia y tecnología y promover la producción y difusión de información científica y técnica.

Puntos públicos de acceso

Alentar el establecimiento de varios puntos comunitarios multi funcionales de acceso público, de forma sostenible, en lugares próximos a las bibliotecas, oficinas de correos, archivos y museos, escuelas y otros similares, para facilitar el acceso equitativo a la información, y a la tecnología de información y comunicación, de forma que puedan llegar a ser generadores de contenido, especialmente en las zonas rurales y urbano marginales.

Preservación de la información

Promover acciones para preservar y conservar registros y documentos en cualquier formato, generando fondos patrimoniales de información. Esto incluye bienes intangibles del patrimonio cultural y la identidad cultural de los pueblos, lo que refuerza su diversidad.

Acceso universal

Lograr el uso más extendido posible por parte del público de las tecnologías de la información y la comunicación. El acceso / servicio universal implica seguir un proceso de cinco etapas: a) El establecimiento de la red de telecomunicaciones b) Ampliar el alcance de la red c) Ampliación a un mercado masivo d) Expansión de la red completa e) Prestación de servicios

Objetivo 2: Desarrollar las capacidades

Para crear, apoyar y promover estrategias, herramientas y metodologías para generar capacidades y habilidades para utilizar la información y las tecnologías de la comunicación en todos los sectores y grupos sociales, en todos los niveles de la educación formal e informal, también la difusión de las posibilidades que ofrecen los diferentes modelos de gestión de la información. En particular, para crear capacidad de investigación y de innovación tecnológica, orientados hacia la generación de conocimiento de uno mismo, y para generar contenidos nacionales por parte de las instituciones públicas y contenidos locales por parte de diferentes grupos sociales.

En este caso, las acciones se pueden agrupar bajo 4 áreas:

Áreas de acción

Descripción

Contenido nacional

Generar capacidades para que las instituciones públicas puedan producir importantes contenidos para el desarrollo nacional y promover la creación de capacidad en la ciudadanía para que los ciudadanos también puedan producir para su propio desarrollo.

Alfabetismo digital

Estructurar los planes nacionales de enseñanza sobre el uso de la información y las tecnologías de información y comunicación, en todos los niveles de educación formal e informal. Incluir metodologías y herramientas específicas para los grupos con necesidades especiales. La capacitación debe estar orientada a fomentar la equidad entre géneros.

Innovación, investigación, desarrollo y transferencia de tecnología

Promover y patrocinar programas de formación en investigación, innovación y desarrollo tecnológico, especialmente en la educación superior y los
organismos de ciencia y tecnología, en áreas tales como hardware, middleware
y software.
Desarrollar la capacidad para adaptar la tecnología de acuerdo a especificidades y características nacionales. Promover la conexión con las redes regionales y mundiales de investigación.

Protección de conocimiento tradicional

Proteger el patrimonio cultural inmaterial y preservar los conocimientos tradicionales, reconociendo la riqueza cultural y el respeto de la diversidad cultural de los países.
Alentar la producción de los productos culturales que contribuyen a la promoción de la diversidad cultural.


Objetivo 3: Lograr un marco jurídico y reglamentario adecuado

Para crear las normas y reglamentos necesarios para garantizar el derecho a la información, para fomentar la utilización de la información y de las tecnologías de información y comunicación, y a través de los órganos jurídicos, la creación de un adecuado marco legal estable. Los objetivos de la Política Nacional de Información deben ser diseñados para reforzar todas las formas de acceder y utilizar la información, tanto en los formatos tradicionales como en los digitales.

Aunque hay varias actividades posibles para alcanzar este objetivo, el documento de la UNESCO establece una sola área de acción:

Áreas de acción

Descripción

Convergencia de normativas

Adaptar la legislación nacional a las nuevas condiciones de la convergencia tecnológica, a fin de promover la creación de derechos individuales. Promover la armonización de la legislación en toda la región, para crear un entorno jurídico y reglamentario seguro y confiable.
Promover y garantizar un marco jurídico y reglamentario favorable para crear
y fortalecer los medios comunitarios, y fomentar la diversidad de modelos de propiedad de los medios.
Promover leyes que hagan posible que la competencia sea leal y transparente. Desarrollar y fortalecer las normas de protección de uso.
Definir normas para el Estado para garantizar un entorno con «múltiples
proveedores, asegurando precios competitivos, variedad de canales de abastecimiento, innovación y diferenciación de productos… interoperabilidad en un ambiente de proveedores multiequipo, integración de los mercados y formación de sistemas eficientes de producción».

Una plantilla para la Sociedad del Conocimiento

A pesar de tener una serie importante de problemas y necesidades concurrentes, un buen número de países, por medio de sus gobiernos, han considerado en uno u otro momento de su gestión, y en distintos niveles de profundidad, la creación, ejecución y seguimiento de un plan estratégico para desarrollar la llamada Sociedad del Conocimiento en sus poblaciones.

Existen además numerosas declaraciones presidenciales y multilaterales, así como encuentros, foros y acuerdos, regionales y mundiales, que comprometen recursos y voluntades políticas para buscar el desarrollo de los países por la vía de la expansión de la Sociedad de la Información y el Conocimiento. Otra cosa diferente es que tales compromisos se cumplan y se honren.

En la base de esta actitud y forma de ver la posibilidad de mejorar la calidad de vida de las naciones, se encuentra la comprensión de la relevancia que tiene en cualquier actividad humana el elemento clave de la información y el conocimiento. Múltiples estudios y reflexiones confirman y establecen una correlación entre buenos indicadores de desarrollo (en salud, educación, pobreza, acceso a servicios básicos, alimentación, seguridad, etc.) y un acertado, integrado y completo dominio sobre la información y el conocimiento. Asumiendo, por supuesto, que antes que todo ello hay una verdadera vocación de servicio a la comunidad.

Una guía para comparar con el propio plan

A partir de estas ideas, y reconociendo la necesidad latente de los pueblos y gobiernos, de contar con un mapa de ruta, una lista de verificación y una serie de ejemplos de concreción de las ideas, la Organización Educativa, Científica y Cultural de Naciones Unidas (UNESCO), a través de su Programa “Information for All”, publicó recientemente una Plantilla para la formulación de Políticas Nacionales de Sociedad de la Información (PNSI, o NISP, por sus siglas en inglés).

El libro consta de tres partes. El primer módulo presenta un marco teórico breve y las definiciones de los principales conceptos utilizados en el documento y se identifica la información existente sobre la políticas de la sociedad nacional de información: documentos en el ámbito de la planificación, la legislación, políticas y declaraciones, experiencias en diversos países (programas de agenda digital, políticas de la sociedad de la información a nivel nacional, regional y local, medidas legislativas, etc.), y los documentos internacionales relacionados. También describe brevemente los aspectos jurídicos en diversos contextos económicos, sociales y tecnológicos en relación con una sociedad de la información, así como políticas explícitas a nivel nacional, regional y/o locales, ya sean generales o específicos para determinados sectores (administración electrónica, e-inclusión, e-educación, e-salud, etc.)

El segundo módulo, el aporte diferenciador y concreto de este trabajo, es una metodología de orientación, un modelo para el desarrollo de las políticas de la sociedad de la información y la legislación nacional, de modo que el diversos actores sociales (gobiernos, empresas, organizaciones no gubernamentales, u otras organizaciones) involucrados en la creación, implementación y actualización de su programa para desarrollar estas políticas pueden tener acceso a la información existente, las metodologías, los ejemplos, los procesos, mecanismos y fuentes de información. La plantilla incluye tres fases principales: el punto de partida o la formulación de una PNSI, su aplicación y el seguimiento, la adaptación y actualización de la misma. Esta metodología pretende ser dinámica, flexible y adaptable a los países con diversos los niveles de desarrollo. Por otra parte, se proponen diversas actividades para que los individuos y los grupos encargados de la formulación de la PNSI puedan comprobar si han tomado todas las medidas necesarias para completar su trabajo. El módulo también incluye una bibliografía general.

Por último, el tercer módulo es un amplio glosario de los términos y expresiones utilizados en la actualidad sobre las políticas de sociedad de la información y estrategias. Este glosario también proporciona fuentes de información y enlaces a sitios web relevantes relacionados con estas cuestiones.

Tres metas fundamentales

De acuerdo a esta publicación, los anhelos y trabajo de un país que desee encaminar a su población hacia la Sociedad del Conocimiento, debería perseguir los tres siguientes objetivos, que engloban y comprenden una serie de actividades.

Objetivo 1: Democratizar el acceso

Para poner al alcance de todas las personas, los medios de acceso y uso de la información y tecnologías de información y comunicación, garantizar el disfrute de los derechos de los ciudadanos, el fomento de la educación, el desarrollo local, la erradicación de la pobreza, la equidad de género, la inclusión digital, el acceso universal público, la transparencia y eficiencia, y la gobernanza participativa.

Objetivo 2: Desarrollar las capacidades

Para crear, apoyar y promover estrategias, herramientas y metodologías para generar capacidades y habilidades para utilizar la información y las tecnologías de la comunicación en todos los sectores y grupos sociales, en todos los niveles de la educación formal e informal, también la difusión de las posibilidades que ofrecen los diferentes modelos de gestión de la información. En particular, para crear capacidad de investigación y de innovación tecnológica, orientados hacia la generación de conocimiento de uno mismo, y para generar contenidos nacionales por parte de las instituciones públicas y contenidos locales por parte de diferentes grupos sociales;


Objetivo 3: Lograr un marco jurídico y reglamentario adecuado

Para crear las normas y reglamentos necesarios para garantizar el derecho a la información, para fomentar la utilización de la información y de las tecnologías de información y comunicación, y a través de los órganos jurídicos, la creación de un adecuado marco legal estable. Los objetivos de la Política Nacional de Información deben ser diseñados para reforzar todas las formas de acceder y utilizar la información, tanto en los formatos tradicionales como en los digitales.

ePaís: nuestra propia hoja de ruta

Como hemos sostenido en repetidas ocasiones, en éste y otros espacios, El Salvador ya cuenta con una agenda de conectividad, que puede y debe actualizarse, pero que, sobre todo, debería estar siendo ejecutada, apoyada y acompañada por todos los sectores del país.

El trabajo de la UNESCO comentado aquí proporciona una serie de ideas y experiencias en varios países que estaría bien conocer, comentar y discutir, pero conociendo e impulsando lo que localmente se ha venido realizando y que, debidamente coordinado, priorizado y enfocado, puede producir alentadores resultados.

Web 2.0 e Internet2: Ni es lo mismo ni es igual

Quizá con demasiada frecuencia, escuchamos nuevas palabras, frases y términos que buscan establecer o crear una diferencia con algún otro concepto (producto, servicio, paradigma, época) al que se pueda asociar. “Los años dorados”, “la chispa de la vida”, “el país de la sonrisa”, “telemercadeo”, y muchos otros ejemplos, son nombres pegajosos que intentan hacer ver y fijar en la mente de los consumidores, clientes, usuarios o ciudadanos normales las diferencias de lo que representan.

Esto es importante desde el punto de vista del mercadeo, pues ayuda a marcar el fenómeno o aspecto al que se refiere. Aunque es realmente una buena estrategia de posicionamiento, en algunos casos se abusa, se cometen errores o, sin advertirlo, se crea confusión por el parecido de los términos y/o el momento en que se dan a conocer.

Uno de estos casos es el de la tendencia sociotecnológica denominada “Web 2.0” y la red dedicada a la investigación, la ciencia y el avance de la tecnología, conocida en los Estados Unidos como “Internet2”.

Ambos términos se vienen utilizando desde hace unos años para identificar todo un conjunto de aspectos y, aunque mantienen en común el número “2” y el hecho de utilizar las tecnologías de telecomunicaciones por medio de Internet, las similitudes llegan hasta ahí. Se trata de dos realidades contemporáneas completamente distintas.

Web 2.0: un paso más hacia la participación

Podríamos adoptar la siguiente concepción para Web 2.0: La promesa de una visión realizada, es decir, la Red Internet convertida en un espacio social, con cabida para todos los agentes sociales, capaz de dar soporte a y formar parte de una verdadera sociedad de la información, la comunicación y/o el conocimiento.

Se dice que se trata de un paso más hacia la participación de más personas en todo el mundo, a través de la red Internet, manifestando su opinión, expresando sus sentimientos, sus aficiones artísticas, intelectuales, literarias, sus inquietudes, y literalmente cualquier cosa que se le pase por la mente en un momento dado. La posibilidad de la interacción y la participación en redes sociales llevada a una elevada expresión: conectados a toda hora y desde todo lugar, con la posibilidad de informar, comentar o simplemente colocar grandes o pequeñas piezas de expresión multimedia.

La satisfacción de la necesidad básica del ser humano de comunicarse, teniendo o no la posibilidad de réplicas por otros seres humanos dispersos en el planeta.

Algunos de los principios que se hallan en la base de la tendencia de Web 2.0 son:

> El servicio mejora automáticamente mientras más personas lo usan: Los usuarios agregan valor

> Se apoya en el poder de la Web para reunir la inteligencia colectiva

> Se trata de una web incremental, web viva, que puede actualizar su contenido a cada instante, en segundos, por medio de fuentes seleccionadas por cualquier persona

> Nuevos modelos y formas de negocio

> El activo clave no es el programa, sino el contenido

Desde el punto de vista comercial, las características que han buscado diferenciar la corriente del Web 2.0 incluyen la utilización de tipos de letras diversos, colores llamativos y una ortografía particular, transmitiendo el mensaje de libertad personal, rebelión contra lo establecido, autonomía e individualidad.

El nombre de Web 2.0 intenta reflejar una evolución importante del uso y valor de los servicios provistos en la actualidad a través de Internet. Retrospectivamente, y aunque nunca fue llamada así, ahora se puede llamar al World Wide Web que acompañó los primeros pasos de Internet, desde 1992 a 2004, como Web 1.0.

El uso de decimales (es decir, la porción que se lee “punto cero”) proviene de una práctica profesional en las ciencias de la computación que modifica el número entero de la versión de un producto de software cuándo los cambios introducidos son mayores, y reserva uno o varios decimales para establecer diferencias menores de una versión a otra.

Internet2 (o lo que es lo mismo, “Redes Avanzadas”)

Por su parte, “Internet2”, estrictamente hablando, es una asociación de instituciones de investigación y de educación superior en los Estados Unidos. Por extensión, el nombre de Internet2 se aplica a una red semipública de alcance mundial de instituciones de investigación, formada por redes particulares de investigadores en todas las disciplinas del saber, que hacen uso de las herramientas tecnológicas de comunicación, almacenamiento, procesamiento y transmisión de datos a alta velocidad y con inmensas capacidades.

En todo el mundo, Internet2 es sinónimo de “Redes Avanzadas”, y muchos países cuentan con sus redes académicas avanzadas organizadas, apoyadas, o no, por las políticas nacionales de ciencia, tecnología e innovación, y por los planes y prioridades de investigación colaborativa.

El nombre de Internet2, lógicamente proviene de la relación de evolución y avance tecnológico a partir de lo que todos conocemos como Internet, que sería, según esto, Internet1 (aunque esta nomenclatura no existe en ningún lugar).

El desarrollo de Internet2 o Redes Avanzadas ha significado la creación o evolución de nuevas tecnologías: el video y la videoconferencia ya no se envían por líneas telefónicas, sino por Internet2, con nuevos protocolos. Asimismo, las conferencias telefónicas se envían a través de Redes Avanzadas; a esto se le conoce como Voz sobre IP.

Algunas aplicaciones sobre redes avanzadas:

> Control remoto de instrumentos (telescopios, microscopios electrónicos, etc.). Las redes avanzadas dan la calidad de servicio que le permite al usuario manipular instrumentos a distancia, recibir respuesta inmediata y hacer observaciones en tiempo real.

> Grid (supercómputo distribuido). Como la velocidad de la red es muy grande, en vez de que algún investigador requiera una súper computadora, usa muchas computadoras distribuidas en todos lados, para hacer cálculos muy complejos en paralelo.

> Banco de objetos distribuidos multimedia. Cada usuario de Internet2 sube sus objetos (imágenes, textos, videos, audio, proyectos, etc.) a su propio servidor y los buscadores buscan en ellos con gran facilidad y rapidez para lograr intercambios y compartir recursos educativos.

Ni es lo mismo ni es igual

Como hemos visto, los términos “Web 2.0” e “Internet2” no son, en absoluto, sinónimos. Es comprensible que a veces se puedan confundir, dado que ambas frases usan palabras que no se conocían hace relativamente pocos años y que se asocian a los avances relacionados con la mayor red de telecomunicaciones existente. Adicionalmente, otro factor que provoca esa confusión es que intentan mostrar que es una evolución de su respectivo ancestro, y para ello utilizan en ambos casos el numeral 2.

Web 2.0 es una tendencia sociotenológica, Internet2 es una infraestructura de red de investigadores y científicos en todo el mundo.

Incubando empresas en El Salvador

El momento de la vida en que todos los seres vivos somos más vulnerables e indefensos es en el nacimiento. La razón, dicho muy sencillamente, es que pasamos de un entorno a otro completamente distinto, y aun no contamos con los recursos propios para desenvolvernos en este “nuevo” ambiente.

Natural y normalmente, cada ser individual va desarrollando esas nuevas habilidades de supervivencia con el tiempo, por su propia cuenta y, en el caso de los seres humanos y animales, con la ayuda y cuidados de los padres y/o los demás miembros de la comunidad.

No obstante, con alguna frecuencia, el nuevo ser no está completamente listo para esa primera fase de adaptación y aprendizaje en el nuevo ambiente. En ese caso, dentro de los avances de la raza humana, se utiliza el proceso de incubación para completar ese proceso.

Etimológicamente, “incubar” proviene del vocablo latín que significa “estar acostado sobre algo” y, en muchas clínicas maternales se cuenta con más de una instalación adecuada para realizar este proceso. En estos casos, la incubadora funciona como una especie de útero artificial.

El principio es que el bebé ya no depende de su madre para desarrollarse, pero tampoco es capaz de evolucionar por sí mismo, y por eso necesita permanecer allí, seguro y asilado de gérmenes y ruidos, el tiempo que los médicos determinen dependiendo de las semanas que tenga el bebé, el nivel de desarrollo de sus sistemas vitales y de acuerdo a cómo el recién nacido vaya evolucionando.

Seguir leyendo Incubando empresas en El Salvador

¿A qué lugar desea ir hoy en El Salvador?

Por siglos, una de las formas más efectivas que los seres humanos utilizamos para identificar, localizar y llegar a un lugar es por medio de la representación bidimensional de la geografía y topología de la superficie terrestre, conocida como mapa.

El término proviene del latín “mappa”, que significa pañuelo, y esto fue debido a que los primeros mapas fueron trazados en pedazos de lienzo, o pañuelos. La habilidad prácticamente innata de la mayoría de humanos para comprender la representación en dos dimensiones de una serie de símbolos y dibujos de caminos, vegetación, edificaciones, accidentes naturales, y otros puntos de referencia, han hecho de los mapas una valiosa herramienta para movilizarse de un sitio a otro, ya sea por tierra, agua o aire, utilizando cualquier tipo de medio de transporte.

Implícitamente, la construcción de un mapa supone una colaboración entre desconocidos. Debió existir una persona que levantara y dibujara un mapa, para que posteriormente, las personas que desean hacer el mismo recorrido, sepan de antemano las orientaciones, las direcciones y los movimientos que deben realizar para llegar al punto deseado. Lo más usual es que el usuario de un mapa desconozca quién o quiénes levantaron originalmente la información que tanta utilidad le está prestando en un momento dado.

Esta ha sido la historia de tantos exploradores, navegantes, conquistadores que, posteriormente complementados con matemáticos, cartógrafos y dibujantes, ha construido los mapas que han orientado por siglos a millones de viajeros. Obviamente, las herramientas, métodos y niveles de precisión han ido cambiando y mejorando con el tiempo, y en la actualidad contamos con mapas mucho más exactos y confiables que los primeros mapas que se trazaron.

Los mapas digitales

Con el desarrollo de las posibilidades que las tecnologías de digitalización ofrecen, el campo de la elaboración y uso de mapas no podía quedar fuera, y en la actualidad existen las versiones digitales de los mapas, con todas las ventajas que esta digitalización puede ofrecer.

La facilidad y amplias posibilidades de la manipulación de información digital que nos permiten las computadoras y demás dispositivos que trabajan con datos en formato digital, además de su velocidad y miniaturización, han abierto las puertas a una cantidad prácticamente ilimitada de aplicaciones posibles, y solamente sujeta a la necesidad y creatividad de los entusiastas.

Entre otras funciones, los mapas digitales nos permiten alejar y acercar vistas, establecer rutas óptimas, calcular distancias, ubicar puntos específicos, y recordar ubicaciones específicas, así como seleccionar y concentrarnos en áreas particulares. Pero también cuentan con la posibilidad de asociar otros tipos de información a los datos georeferenciados, por lo que un mapa originalmente bidimensional, se convierte en un poderoso instrumento para una gran cantidad de aplicaciones.

Google Maps, así como otras opciones (MapQuest , VirtualEarth y A9 Maps, por ejemplo), al ser transferidas al dominio público, han permitido que la imaginación de muchos innovadores haya trabajado y logrado cualquier cantidad de funciones y aplicaciones. Existe incluso un blog en Internet que, aunque se declara no oficial, es una guía para dar seguimiento a las aplicaciones que cualquier persona ha realizado utilizando Google Maps. Se trata de Google Maps Mania.

La aplicación de El Salvador Digital, que La Prensa Gráfica ha puesto a disposición en forma libre para que cualquier persona se registre y pueda identificar en el mapa digital su negocio, comercio, industria, restaurante, y hacerlo fácilmente identificable y ubicable para cualquier persona que busque consultarlo, es otro ejemplo de esta explosión de aplicaciones en el web para ubicación geo-referenciada.

Satélites + Mapas = tecnología GPS para rastreo y ubicación

Por su parte, el avance de la tecnología espacial ha abierto las posibilidades para que también el público general pueda hacer uso de las señales satelitales que provienen de los cientos de dispositivos que acompañan el movimiento rotacional de nuestro planeta. De esta forma, en la actualidad existen cientos de tipos de dispositivos que reciben y envían señales a varios satélites, de forma que pueden utilizar sistemas geodésicos de referencia.

El GPS (Sistema de Posicionamiento Global, por sus siglas en inglés) se ha vuelto una característica bastante fácil de obtener y utilizar, por ejemplo en los modernos aparatos de telefonía celular, rastreadores de vehículos, y otros artefactos de fácil adquisición y operación. El GPS funciona mediante una red de 27 satélites en órbita sobre el globo, con trayectorias sincronizadas para cubrir toda la superficie de la Tierra. Cuando se desea determinar la posición, el receptor localiza automáticamente como mínimo tres satélites de la red, de los que recibe unas señales indicando la posición y el reloj de cada uno de ellos. Con base en estas señales, el aparato sincroniza el reloj del GPS y calcula el retraso de las señales; es decir, la distancia al satélite. Por el método de triangulación calcula la posición en que el objeto en cuestión se encuentra.

Una de las aplicaciones de la combinación de los mapas con la determinación de la ubicación por medio de satélites, o GPS, lo constituyen los sistemas de navegación y orientación, disponibles en varios países, como dispositivo estándar u opcional en los automóviles, embarcaciones y otros tipos de vehículos de consumo público.

Navegador GPS con mapas de El Salvador

Una buena noticia es que en El Salvador ya es posible contar con navegadores que, apoyados en los satélites del sistema GPS, y conteniendo los mapas completos del país, hacen posible establecer rutas, conocer y conducir sobre las calles y avenidas de nuestro país, dirigirse a destinos remotos en el interior, y obtener otra serie de información útil, como las direcciones para llegar a las estaciones de gasolina, cajeros automáticos, hospitales, restaurantes, sitios de esparcimiento y otros lugares, cercanos a nuestra ubicación presente.

Las orientaciones e indicaciones son proporcionadas por una voz sintetizada que, en español, es capaz de avisar las desviaciones y cruces que debe ejecutar el conductor de un automóvil para llegar a su destino de una forma eficiente. También advierte y se ajusta cuando el conductor toma una ruta distinta a la que el navegador ha sugerido (sin protestar por el equívoco o la desobediencia cometida).

Estos dispositivos son distribuidos en el país por Q-Soft, quienes han desarrollado también los mapas salvadoreños que están cargados en los navegadores, y por la cadena de almacenes Radio Shack, y resultan de gran utilidad, no sólo por la precisión con la que reflejan el mapa digital de El Salvador, sino también por la información adicional que proporcionan.

La banda ancha

Muchos términos y nombres que tienen su origen en las disciplinas tecnológicas invaden y toman posesión de un espacio en el léxico común de una cantidad significativa de hispano parlantes, una vez el concepto que definen alcanza igualmente un buen nivel de difusión.

De la tecnología informática, nuestro idioma ha adoptado un gran número de palabras y frases: algunas identifican bienes tangibles (disco duro, tarjeta de red); otras definen conceptos (copias de respaldo, base de datos); se aceptan marcas y nombres comerciales como sustantivos (ipod, office); se adoptan denominaciones de tendencias y paradigmas (web 2.0, virtual); ocurren nuevas acepciones a palabras conocidas (aplicaciones informáticas, redes sociales); se acogen términos en otro idioma (switch, driver), y debemos lidiar con una colección de siglas (USB, JPG). Son varias las formas de transculturización hacia el lenguaje castellano en torno a la tecnología informática.

Si bien hay una correlación intuitiva entre la facilidad para aceptar y utilizar esta ola de nuevos términos y la edad de los que la utilizan, siendo mayor entre los más jóvenes, también es cierto que no resultan totalmente ajenos a una población de mayor edad, en la medida que los dispositivos e ideas que son definidos por estas palabras también forman parte del diario quehacer de una población cada vez más abundante, independientemente de la edad.

Acompañando a esa ola de nuevas incorporaciones a nuestra forma de comunicarnos, aceptada o no por la Real Academia de la Lengua, existe aún una relativa imprecisión de lo que significan esos conceptos. Esto es totalmente comprensible. Por un lado los productos, servicios y conceptos que esas palabras representan son, en sí mismo, muy novedosos, por lo que no son muchas las personas que los conocen y dominan con completa propiedad; y por otra parte, coincide que dichos conceptos también contienen un gran componente de innovación y constante cambio.

La incursión en documentos formales

Este tópico cobra interés cuando ejemplos de estos términos son utilizados en documentos formales, entre los que podemos enumerar las tesis de grado, los informes de investigaciones, los libros que publican las editoriales de mayor tradición, los reportajes periodísticos, y las declaraciones políticas, entre otros.

Entonces, establecer un nivel de cobertura y alcance por medio de redes inalámbricas, o hablar de difundir cantidades significativas de netbooks entre la población estudiantil, o establecer la utilización de banda ancha como un distintivo importante en el potencial desarrollo de un país, vuelve de gran interés la concertación acerca de lo que los conceptos utilizados comprenden.

Un caso ejemplar es el de la “banda ancha”. Incluso si partimos de la semántica, entendemos que, sabiendo que la “banda” es la analogía a la velocidad de la conexión a Internet, esperaríamos que si es “ancha” sea una alta velocidad y, por contraste, debe existir una “banda estrecha”. Pero, ¿cuánto es ancho y cuánto es estrecho?

Varias versiones

En Wikipedia podemos encontrar lo siguiente: La recomendación I.113 de ITU-T, el sector de estandarización de la Unión Internacional de Telecomunicaciones, encuadra dentro de banda ancha a las técnicas capaces de transmitir más rápido que un acceso primario de RDSI, sea éste a 2 ó 6 Mbps. Sin embargo las velocidades de 512 kbps o incluso 1024 kbps se comercializan como de «banda ancha».

En el sitio de la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) se halla la siguiente definición: “El término banda ancha normalmente se refiere al acceso a Internet de alta velocidad. La Comisión Federal de Comunicaciones define al servicio de banda ancha como la transmisión de datos a una velocidad mayor de 200 kilobits por segundo (Kbps) o 200,000 bits por segundo, en por lo menos una dirección: transmisión de bajada (del Internet a la computadora del usuario) o de subida (de la computadora del usuario al Internet)”.

También en Wikipedia aparece una definición que no se basa en números: Se conoce como banda ancha en telecomunicaciones a la transmisión de datos en la cual se envían simultáneamente varias piezas de información, con el objeto de incrementar la velocidad de transmisión efectiva. En ingeniería de redes este término se utiliza también para los métodos en donde dos o más señales comparten un medio de transmisión.

Incluso hay sitios en Internet que permiten medir el ancho de banda con el que cuenta nuestra conexión, como por ejemplo este medidor en un servidor en Chile, y que dan resultados como el siguiente, estableciendo el nivel de la banda ancha.

La banda ancha universal

Diversos estudios académicos, propuestas comerciales y compromisos políticos hacen alusión a la banda ancha como una característica de la verdadera Sociedad del Conocimiento. No están lejos de la realidad. Con el constante incremento de demanda de más y mejores servicios, tanto de trabajo y aprendizaje, como entretenimiento y comercio, en la red, es fácilmente comprensible que la necesidad de contar con servicios y provisión de banda ancha de buena calidad y amplia cobertura en países como el nuestro, sea una prioridad de gobiernos, universidades y empresas en general.

Humor en banda ancha
Humor en banda ancha

—————————————————————————————————————————————

La espiral necesidad-satisfacción-necesidad

La interrelación y trabajo conjunto que debe ocurrir entre dos disciplinas académicas, científicas o tecnológicas diferentes conlleva un buen número de habilidades de comunicación de parte de todos los involucrados, precisamente para lograr transmitir mensajes que cruzan dos o más fronteras del conocimiento y marcos conceptuales.

En el caso concreto de la informática, dado que se trata de una disciplina eminentemente de servicio a otras profesiones y oficios, la habilidad para comunicarse de una forma eficiente y completa es de suma importancia. El lenguaje técnico, tanto verbal como escrito y gráfico, que se usa dentro de la carrera de la computación es necesario y muy útil, pues es capaz de contener y transmitir mucha información importante para que los análisis, diseños y codificación de los programas realicen lo que deben ejecutar, según han sido concebidos.

Pero ese lenguaje propio de la computación, al igual que en el caso de otras disciplinas, es tan valioso para los profesionales de esta disciplina, como inútil y molesto para la mayoría de los demás profesionales.

La tarea de transmitir una idea, una concepción, o la descripción de necesidades para que una persona que intentará diseñar un sistema para solventarlas, no es sencilla para ninguna de las partes. Las preconcepciones, desconocimientos y experiencias previas que tenemos cada uno de nosotros sobre cada concepto intervienen en todas la comunicaciones que realizamos, y esto establece un límite importante en el mensaje que transmitimos y recibimos.

La conocida y antigua metáfora de la construcción del columpio ilustra en forma humorística esta realidad tan importante.

Por si no se alcanza a ver, las leyendas en cada figura se leen así, de izquierda a derecha, de arriba abajo:

  1. La solicitud del usuario
  2. Lo que entendió el líder del proyecto
  3. El diseño del analista de sistemas
  4. El enfoque del programador
  5. La recomendación del consultor externo
  6. La documentación del proyecto
  7. La implantación en producción
  8. El presupuesto del proyecto
  9. El soporte operativo
  10. Lo que el usuario realmente necesitaba

Las figuras 1 a 5, así como la 10, reflejan fases del proceso de desarrollo de un sistema de información. Las figuras 6 a 9 tienen que ver con otros aspectos del entorno del mismo tipo de proyectos. Cada una de estas figuras daría mucho material para reflexionar, discutir y, con este enfoque, también bromear.

Las barreras

De forma igualmente alegórica, se pueden listar frases cortas que intentan mostrar parte de los prejuicios y concepciones, acertadas o no, que tanto los usuarios (entendiendo como tales a las personas que utilizan los sistemas de información, independientemente de su formación, experiencia, edad, y otras características) como los desarrolladores (abarcando de este modo a todos los que intervienen en el proceso de desarrollo y construcción de un sistema de información.

Barreras de usuarios

Las computadoras reducen la creatividad

“La computadora tuvo la culpa”

Las computadoras desplazan empleados

Son sólo para “iniciados”

Pueden hacer cualquier cosa

Son sinónimo de programación

“Alguien más lo puede hacer por mí”

“Si tengo una computadora voy a trabajar todo el tiempo”

“Pretenden hacernos ver como tontos”

“Estoy demasiado viejo para aprender”

Es muy difícil de aprender

“Podría cometer errores”

Los métodos antiguos funcionan bien

Los técnicos no pueden expresarse sin usar un lenguaje confuso y rimbombante

“Mi área de saber no es susceptible de llevarse a computadora”

Problemas de “mala sangre” entre las personas

Barreras de desarrolladores

Un buen trabajo no se aprecia

Los usuarios no saben lo que quieren y no pueden definir sus necesidades

Los usuarios no le dedican el tiempo necesario al desarrollo del sistema

Los usuarios cambian las prioridades de los proyectos de desarrollo

“Mi trabajo es desarrollar una aplicación (mecanizar lo que se hacía manualmente) y nada más”

“Yo debería estar trabajando como jefe”

Los usuarios nunca están satisfechos: siempre quieren más

La espiral necesidad-satisfacción-necesidad

Precisamente esta última idea, la de que los usuarios nunca parecen satisfechos, es la que da origen a una sencilla concepción gráfica para explicarlo: la espiral necesidad-satisfacción-necesidad.

Una amplia porción del mercado de la industria de tecnología de información y comunicaciones (TIC) está formado por el desarrollo y/o adecuación de aplicaciones informáticas para atender y resolver los procesos y problemas que se dan en todas las empresas e instituciones del mundo.

El reto principal ha sido, desde siempre, que el diseñador y el programador comprendan el fenómeno que se pretende mecanizar y automatizar con ayuda de las computadoras. Existen un buen número de metodologías para intentar acercar a los profesionales del diseño y la programación a los demás procesos. Estas metodologías y enfoques han evolucionado con los años, lo mismo que las tecnologías de desarrollo, lo que permite velocidades mayores entre la definición de requerimientos y la presentación de prototipos.

En este proceso, es esperado que, después de desarrollar una primer versión de una aplicación, que haya observaciones, cambios y ajustes. Aun cuando la aplicación se entregue y se dé por concluida, siempre habrá una nueva necesidad que envía de nuevo a los desarrolladores a su estación de trabajo. Esta es la espiral necesidad-satisfacción-necesidad en el desarrollo de sistemas informáticos.

Lo que es más importante, sin embargo, es que lejos de considerar esta constante interacción como una molestia o una señal de insatisfacción por parte del usuario, debe ser visto como el involucramiento y aceptación del sistema por sus destinatarios, al punto de desear mejorarlo todo el tiempo, reconociendo que la aplicación provechosa de las TIC en cualquier negocio puede marcar la diferencia.

Algunas propuestas

Es importante establecer y acordar que los objetivos de unos y otros, usuarios y desarrolladores, son los mismos, pues se encuentran definidos en relación a los grandes objetivos de la empresa o institución donde laboran. Siendo ése el caso, es vital considerar lo siguiente:

Para asegurarse de considerar al usuario en el desarrollo

El desarrollo es para satisfacer los objetivos del usuario, no de los analistas

El grupo de sistemas no debe asumir la responsabilidad del desarrollo individualmente

Debe nombrarse un administrador del proyecto por parte del grupo usuario (“campeón”)

El grupo usuario debe entender y aceptar el compromiso y responsabilidad del desarrollo, proveyendo tiempo para las reuniones y evaluaciones de seguimiento

La participación del grupo usuario debe ser activa, no pasiva

Los planes en el tiempo deben ser realistas, considerando los recursos y la dedicación de los mismos

El grupo de sistemas debe tomar en consideración los comentarios y opiniones de todos los usuarios, llevando a discusión general aquellos que sean conflictos potenciales

La(s) gerencia(s) involucradas deben mantenerse informadas de los avances y problemas relevantes del desarrollo

Los nuevos requerimientos deben

Responder a los objetivos generales de la organización y el sistema

No entrar en conflicto con requerimientos de otros usuarios

Ser rentables, en términos de costo-beneficio

Reflejar un entendimiento claro de las potencialidades del sistema

Ser justificados desde la perspectiva del usuario

Los factores humanos que deben mantenerse presentes

1. Mantener la sencillez

2. Ser consistente

3. Diseñar y mostrar terminación de tareas

4. Apoyar la sensación de control del usuario

5. Proveer atajos y formas alternas de hacer las cosas

6. Manejar errores adecuadamente

7. Permitir la reversión de acciones fácilmente

8. Usar efectivamente la sorpresa o diferenciación

9. Evitar confundir al usuario

Computación en la nube

Si un amigo nos dice que “andamos en la nube”, nuestra primera interpretación posiblemente será que nos está llamando “distraído” o “descuidado”. ¿Puede entonces un computador “estar o andar en la nube”?

La denominación puede sonar, cuando menos, extraña. Si se pluraliza, “computación en las nubes” puede transmitir las ideas de una forma distraída o descuidada de trabajo en la informática (“Fulano siempre anda en las nubes”), o de algo de precio elevado (“el costo de ese servicio está en las nubes”).

Pero así, en singular, y proveniente de la traducción de “Cloud Computing”, refleja una de las tendencias contemporáneas en la forma que las organizaciones, empresas e instituciones, de todo tamaño, tienen para realizar tareas computacionales, con sus ventajas y posibles inconvenientes.

El origen del nombre reside en los diagramas, usados desde hace muchos años, en los que la red de redes, Internet, es representada como una nube a la que se accede desde los computadores y servidores localizados en cualquier parte del mundo. Una nube resultó ser una imagen idónea para representar es conjunto millonario de aparatos y dispositivos, así como contenidos, datos y aplicaciones que están “allá afuera”, “en la nube”.

Sin embargo, es importante aclarar que el concepto no es nuevo. En la década de los 80, por ejemplo, Scott McNealy, Director ejecutivo de Sun Microsystems por muchos años, había establecido que “la red es la computadora”. El uso de terminales sin mucho poder computacional conectándose a un “cerebro” central fue por mucho tiempo el paradigma funcional de la computación empresarial, y esta vuelta retro con el nombre renovado “en la nube” puede verse como una reencarnación de aquellos propósitos.

¿Qué es la computación en la nube?

El concepto está basado en tener acceso a todos nuestros datos y programas desde donde sea a través de Internet (que es la nube). Es decir, aprovechar el almacenamiento en línea o usar un centro de procesamiento remoto para ejecutar las operaciones de una empresa. (Google Docs, Google Apps, Amazon Web Services, etc.)

Otra forma de verlo es tener una computadora portátil con un hardware y software mínimo de arranque, que simplemente aprovecha al máximo el ancho de banda de Internet para procesar datos que se encuentran guardados en algún lugar remoto, pero que no permite notar la diferencia de tenerlos en nuestra máquina o en algún lugar del otro lado del mundo.

A nivel personal, se puede pensar en los almacenamientos y procesamientos de documentos, presentaciones y hojas electrónicas que se hacen en la red, a veces sin copias en computadores locales, y que permiten agregar valor, como el trabajo colaborativo a distancia, la descarga de archivos propios estando en ubicaciones remotas, etc. Este blog, y la mayoría de blogs, son un ejemplo de ello.

Más ampliamente, en una situación ideal, pero no lejana de la realidad, en la computación en la nube se habla de enormes grupos de servidores y un ancho de banda de red muy amplio y un acceso bastante rápido.

Esta idea abre la puerta a otras posibilidades: alquilar un computador virtual, a la medida, con una velocidad de procesamiento para nuestras necesidades, capacidad de memoria y disco según nuestros requerimientos, y con el sistema operativo que sea apropiado a nuestras operaciones. Una vez nos han configurado este computador para nuestro uso, “en la nube”, podemos comenzar a poblarlo con nuestros datos y aplicaciones.

Otra posibilidad interesante es el alquiler del servicio de procesamiento, es decir, el ya ampliamente discutido paradigma del “software como servicio”. En este caso, el proveedor ofrece, además de la plataforma, el equipo, procesador, memoria y almacenamiento, los programas informáticos adecuados a las necesidades del cliente.

Ventajas y desventajas

Hay un continuo debate en torno al tema. Los defensores arguyen que los costos para las empresas que contratan estos servicios “en la nube” se reducen, y se incrementa la flexibilidad y velocidad de respuesta ante nuevos requerimientos, además de que las aplicaciones se encuentran disponibles como la red: 7 x 24 y desde todo el mundo.

En su contra, hay que decir que aun existen temores acerca de la seguridad y privacidad de los datos contenidos. Acuerdos legales y copias de respaldo en las propias manos pueden ayudar a mitigar estas posibles desventajas.

Entonces, los pro y contra se pueden resumir así:

A favor

Ahorro. Libera de gastos tanto en infraestructura como en recursos humanos. No necesitaremos personal que gestione el sistema porque otros lo administran por nosotros.

Escalabilidad. Se trata de un sistema extremadamente flexible, las necesidades pueden corresponderse con nuevos recursos casi automáticamente por el proveedor.

Ubicuidad. Al estar en la nube y no en el escritorio podremos acceder a los datos estemos en el sitio en el que estemos.

En contra

Privacidad de los datos. El tráfico de los datos estará continuamente en manos de otros. Por eso es necesario ser muy escrupuloso con la elección del proveedor, debe ser una empresa de total confianza y con una gran solvencia pública.

Dependencia de una empresa. Por eso vuelve a ser necesario elegir con mucho cuidado. Las soluciones de las grandes empresas sector suelen ser una solución segura.

Como todas las tecnologías lo mejor que tiene la Computación en la Nube es que es una posibilidad más para elegir, pero cada cual tiene que hacer balance y decidir cual es la mejor elección para su negocio.

La computación como “commodity”

Si abstraemos un poco la reflexión a partir de esta tendencia “en la nube”, podemos pensar que los servicios de alquiler de procesamiento de datos, de uso de software, almacenamiento, respaldo y custodia de información se están volviendo cada vez una mercadería de fácil intercambio, un “commodity”.

La definición de “commodity” es: Término anglosajón que se aplica a todo producto vendido a granel, a menudo se vende en los mercados financieros. Los más comunes son el oro, el café, el petróleo, etc. y las materias primas que se transan en los mercados mundiales.

Por extensión, anticipamos que esta forma de negocio puede ser destacada en el futuro, con su respectiva porción del mercado latinoamericano, tanto del lado de los proveedores como de los consumidores de los servicios ofrecidos “en la nube”.

Así que la próxima vez que le pregunten si usted anda “en la nube” no lo tome a mal. Quizá sea un buen augurio a su próximo negocio exitoso.

IPv6: Más direcciones que arenas en la playa

Tal vez haya escuchado el acrónimo IPv6, o quizá le haya pasado desapercibido, pero se trata de uno de los cambios más importantes que se está desarrollando en Internet, en forma casi silenciosa. Se trata, dicho brevemente, de un cambio en el protocolo de comunicaciones en el que se empaquetan los mensajes que circulan en Internet, una vez segmentados, para que viajen de un punto a otro, y se vuelvan a armar en el extremo de llegada.

Un protocolo es un conjunto de reglas y definiciones que los fabricantes de los aparatos y dispositivos que se usan para un propósito específico deben seguir en el momento de diseñar y manufacturar sus productos. En este caso, el protocolo IP (Protocolo Internet) debe ser acatado por los productores de equipos para comunicarse en Internet.

Actualmente, la mayor parte de comunicaciones se realizan utilizando la versión 4 del protocolo IP, pero se están realizando esfuerzos intensos para dar a conocer los mecanismos de transición de ésta a la versión 6, pues se considera importante lograr el cambio total hacia este nuevo conjunto de reglas y acuerdos.

¿Qué hacen las direcciones IP?

Una de las características más reconocidas y fáciles de comprender de las direcciones IP, independientemente de la versión, es que cada dispositivo que está conectado a Internet debe tener un identificador único, llamado dirección IP, para que los mensajes y paquetes dirigidos a ese dispositivo puedan llegar en forma correcta y completa a su destino.

Las direcciones IPv4 usan 32 bits (dígitos binarios) para construir los identificadores únicos, separados, para efectos de comprensión del ser humano, en 4 bloques de 8 bits, cada uno de los cuales puede tener un valor que va desde 0 hasta 255. Esto completa 256 valores, que es la cantidad de combinaciones binarias que se producen con cuatro dígitos, obtenida matemáticamente de elevar 2 a la cuarta potencia.

Haciendo un poco de matemática binaria, comprendemos que con 32 bits disponibles, la cantidad de direcciones únicas en Internet son un poco más de 4 mil millones. Si bien es un número bastante grande, ya hace varios años los ingenieros de Internet comenzaron a prever que en algún momento esa cantidad de direcciones y de posibles dispositivos conectados simultáneamente a Internet podría quedarse corta, atendiendo a las tendencias de crecimiento de la red de redes.

Después de mucha discusión técnica en varias partes del mundo, e incluso de una versión intermedia del protocolo (IPv5) que fue desechada, se arribó al consenso sobre el nuevo diseño, y gracias a la versión 6 del protocolo IP, que establece direcciones de longitud de 128 bits, será posible contar con “3.4 multiplicado por 10 elevado a la 38 potencia” direcciones.

Esta es una cantidad de direcciones IP accesibles para comunicar dispositivos en Internet tan grande, que algunos han llegado a comparar dicha cantidad con la de arenas en la playa, y de estrellas en el universo. Es decir, se trata de magnitudes que resultan hasta difíciles de imaginar.

Un poco de tecnología

Si bien este apartado contiene elementos quizá excesivamente tecnológicos, será breve y tal vez abone a la comprensión adicional del tema de la necesidad de migración de una versión a la otra en todas nuestras instalaciones de red conectadas a Internet.

Además de los cambios en la cantidad de direcciones, la nueva versión también comprende modificaciones en la estructura de los paquetes de datos que viajan en el ciberespacio. Baste decir esto muy brevemente, de forma que si alguien se interese, pueda estudiar un poco más sobre el futuro del Protocolo Internet.

Los paquetes de la versión IPv4 tienen 192 bits, (10 campos, 2 direcciones y opciones).

Los paquetes de datos en la versión IPv6 tienen 320 bits (6 campos y 2 direcciones).

¿Por qué se desea realizar el cambio a IPv6?

El esfuerzo de esta migración es masivo e intenso, supone capacidad técnica y una clara comprensión de los aspectos involucrados, así como de equipo, hardware y software, diseñado expresamente para poder conocer y dar paso a los paquetes con esta nueva versión.

A pesar de ello, es un proceso que debe realizarse en la mayoría de instalaciones, y en el menor plazo posible. Un solo motivo existe detrás de estos esfuerzos: tener más direcciones IP disponibles en la red mundial de Internet.

La mayor cantidad de direcciones son necesarias para atender la creciente demanda de las mismas, a nivel mundial, para:

* Miles de millones de nuevos dispositivos: teléfonos celulares, PDAs, dispositivos de consumo, automóviles, aparatos de medición, etc.

* Miles de millones de nuevos usuarios: China, India, países con economías emergentes, etc.

* Tecnologías de acceso “always-on” (siempre necesitan estar en línea)

* Nuevos tipos de aplicaciones y nuevos mecanismos de acceso que requieren direcciones únicas, sin admitir mecanismos de traducción de direcciones, como los conocidos NAT (Network Address Translations).

Adicionalmente, la nueva versión del protocolo IPv6 tiene como ventajas:

* Capacidades ampliadas de direccionamiento

* Autoconfiguración y reconfiguración sin servidor (“plug and play”)

* Mecanismos de movilidad más eficientes y robustos

* Incorporación de encriptado y autenticación en la capa IP

* Formato de la cabecera simplificado e identificación de flujos

* Soporte mejorado de opciones y extensiones

* Más facilidad para configurar la seguridad de acceso

Para conocer más sobre IPv6

El 14 de octubre próximo, en la Universidad Centroamericana José Simeón Cañas, a partir de las 8 de la mañana, y durante todo el día, tendremos la oportunidad de conocer más acerca del nuevo protocolo IPv6, gracias a un seminario taller que será impartido por Jordi Palet Martínez, un verdadero profeta del IPv6 a nivel mundial.

Jordi Palet Martínez
Jordi Palet Martínez

La entrada es gratuita, y solamente debe registrarse enviando su nombre, empresa y dirección electrónica a [email protected].