Archivo de la categoría: General

Espacio principal del Blog. Las entradas y artículos recientes se colocan acá, aunque pueden pertenecer también a otras categorías.

Accesibilidad, Gobierno electrónico y Arte digital

Circunstancial y afortunadamente, la semana del 23 al 27 de noviembre se llevaron a cabo en nuestro país al menos tres eventos de relevancia para la versión salvadoreña de la Sociedad del Conocimiento.

De lunes a viernes se desarrolló un seminario taller sobre Accesibilidad web; los días jueves y viernes se realizó un taller sobre gobierno electrónico; y el viernes se presentó la clausura y premiación del 5º certamen de arte digital.

Si bien cada una de estas actividades merece ser destacada por sí misma, también es relevante retomar las señales de convergencia que se dan en nuestro país en este momento, mostrando la evolución y las necesidades de utilización, aprovechamiento y entretenimiento que pueden ser satisfechas por medio de la aplicación de las tecnologías de información y comunicaciones.

Accesibilidad web

No son muchos los sitios web en nuestro país que atienden las sugerencias y normas para que la información en ellos contenida pueda ser accesible, visible, escuchada, leída y, en definitiva, asimilada por todas las personas, independientemente de si tienen alguna capacidad física diferente.

Para intentar enfrentar esta situación, la Secretaría de Inclusión Social, con el apoyo de la Dirección de Innovación Tecnológica e informática de Casa Presidencial (ITIGES) y el Seminario de Iniciativas sobre Discapacidad y Accesibilidad en la Red (SIDAR) organizaron el seminario taller sobre accesibilidad web, invitando a los encargados de los sitios web de varias de las dependencias gubernamentales del país.

De acuerdo al Consejo Nacional de Atención Integral a la Persona con Discapacidad (CONAIPD), según las estadísticas del Registro Nacional de Personas Naturales (RNPN), a julio de 2009, hay 253,222 mayores de 18 años con algún tipo de discapacidad.

Existen otras iniciativas que intentan atender este aspecto, tales como los centros POETA (Programa de Oportunidades para el Empleo a través de las Tecnologías en las Américas), de los que ya hemos conversado en este espacio, y más recientemente, ITIGES ha generado un conjunto de 55 estándares para sitios web del gobierno, dentro de los cuales hay al menos 6 que tienen que ver con la accesibilidad web:

* Para daltónicos La información transmitida a través de los colores también estará disponible sin color.

* Problemas de visión El tamaño de la letra de los textos será adecuado y ajustable por el usuario usando las herramientas del programa visualizador.

* Dificultad de lectura Los íconos serán representativos de la función o acción que llevan a cabo.

* Para ciegos Se proporcionará un texto equivalente para todo elemento no textual, tales como imágenes para explicar su contenido.

* Para todos El diseño visual de las barras de navegación debe ser accesible.

* Para ciegos Tener definido el texto que aparece en el tag de HTML para indicar el nombre del sitio web.

Gobierno electrónico

El jueves y viernes una buena cantidad de directores y gerentes de informática se dieron cita para desarrollar un taller sobre gobierno electrónico para nuestro país, apoyados por CEPAL. Aunque ya han existido iniciativas similares en nuestro país, es importante destacar al menos dos aspectos que marcan una diferencia:

+ El apoyo político

En la inauguración de este taller se encontraban muchos funcionarios públicos de alto nivel, titulares de cartera del Ejecutivo, viceministros y autoridades máximas de algunas instituciones autónomas y semi-autónomas, acompañados por sus colaboradores cercanos en los temas de tecnología de información y comunicaciones.

Adicionalmente, y en representación del gobierno de El Salvador, también se encontraban el Vicepresidente de la República y el Secretario Técnico. Ambos tomaron la palabra, y el mensaje fue claro: este gobierno está comprometido con lograr la eficiencia y transparencia del aparato estatal, con el fin de servir de la mejor forma a sus ciudadanos. Aun sabiendo que éste no es un tema que “gane votos” por sí mismo, es una herramienta y un medio que es clave para desarrollar la gestión que se desea en el gobierno, logrando mejor comunicación, mayor rendimiento y más economía.

+ No más estudios, sino proyectos

De igual modo, fue comentado por varios de los asistentes, es importante que no nos enfrasquemos en la elaboración de más planes y estudios, sino que pasemos de inmediato a la acción. Una de las metas más importantes del taller era obtener una lista de proyectos y acciones concretas que se pueden identificar, y a los que se pueda asociar fechas, recursos, y posibles sinergias con otras iniciativas.

Sabemos que varias dependencias del gobierno han mostrado avances importantes en la utilización creativa y adecuada de las TIC en sus funciones, pero el desarrollo no es similar a lo largo de todo el gobierno. Los aspectos de compatibilidad, interoperabilidad, compartición de datos, intercambio de información, y aprovechamiento de economías de escala y poder de negociación con proveedores son, por ejemplo, elementos que deben ser considerados.

Encuentro de Arte Digital 2009


La Fundación CLIC lanzó y desarrolló la 5a edición del concurso de arte digital y se abrió, una vez más, a la participación de todos, incentivando la utilización del teléfono celular para la expresión artística y así proyectar el arte de nuestros tiempos.


Como en las ediciones anteriores, el Encuentro 2009 fue el espacio en donde los participantes propusieron y comunicaron sus ideas, transformando el uso cotidiano del celular para la expresión artística ciudadana. La creatividad de nuestros jóvenes fue estimulada, y la participación fue numerosa, abarrotando los espacios de la Galería CEFORMA, de la Fundación María Escalón de Núñez el viernes por la noche, para conocer a los ganadores de este ya prestigioso y esperado certamen de arte digital, único en nuestro país.

Algunas de las bases del concurso reflejan la orientación del mismo:

+ Pueden participar jóvenes y adultos de cualquier nacionalidad residentes en El Salvador, siempre y cuando no sean menores de 15 años.

+ El concurso se abre a ser un vehículo de expresión acerca de las problemáticas a nivel global: VIH/SIDA, Género, Violencia Social, Economía Global, Energía renovable, Desarrollo Sostenible, y otros igualmente importantes, siempre y cuando estos se aborden por medio de los lenguajes artísticos.

+ Las obras serán originales e inéditas y producidas digitalmente.

+ Podrán participar en el concurso todos los usuarios de telefonía móvil, sin importar a que empresa de servicio estén inscritos.

+ Todas las obras estarán en línea a través del sitio http://artedigital.clic.org.sv  Para que el público pueda votar por la mejor.

Igualmente, las categorías del concurso han sido adecuadas a las tendencias actuales:

1. Fotografía digital con celular

2. GIF animado

3. Sonido experimental

4. Video corto con celular

5. Relato SMS

La banda ancha

Muchos términos y nombres que tienen su origen en las disciplinas tecnológicas invaden y toman posesión de un espacio en el léxico común de una cantidad significativa de hispano parlantes, una vez el concepto que definen alcanza igualmente un buen nivel de difusión.

De la tecnología informática, nuestro idioma ha adoptado un gran número de palabras y frases: algunas identifican bienes tangibles (disco duro, tarjeta de red); otras definen conceptos (copias de respaldo, base de datos); se aceptan marcas y nombres comerciales como sustantivos (ipod, office); se adoptan denominaciones de tendencias y paradigmas (web 2.0, virtual); ocurren nuevas acepciones a palabras conocidas (aplicaciones informáticas, redes sociales); se acogen términos en otro idioma (switch, driver), y debemos lidiar con una colección de siglas (USB, JPG). Son varias las formas de transculturización hacia el lenguaje castellano en torno a la tecnología informática.

Si bien hay una correlación intuitiva entre la facilidad para aceptar y utilizar esta ola de nuevos términos y la edad de los que la utilizan, siendo mayor entre los más jóvenes, también es cierto que no resultan totalmente ajenos a una población de mayor edad, en la medida que los dispositivos e ideas que son definidos por estas palabras también forman parte del diario quehacer de una población cada vez más abundante, independientemente de la edad.

Acompañando a esa ola de nuevas incorporaciones a nuestra forma de comunicarnos, aceptada o no por la Real Academia de la Lengua, existe aún una relativa imprecisión de lo que significan esos conceptos. Esto es totalmente comprensible. Por un lado los productos, servicios y conceptos que esas palabras representan son, en sí mismo, muy novedosos, por lo que no son muchas las personas que los conocen y dominan con completa propiedad; y por otra parte, coincide que dichos conceptos también contienen un gran componente de innovación y constante cambio.

La incursión en documentos formales

Este tópico cobra interés cuando ejemplos de estos términos son utilizados en documentos formales, entre los que podemos enumerar las tesis de grado, los informes de investigaciones, los libros que publican las editoriales de mayor tradición, los reportajes periodísticos, y las declaraciones políticas, entre otros.

Entonces, establecer un nivel de cobertura y alcance por medio de redes inalámbricas, o hablar de difundir cantidades significativas de netbooks entre la población estudiantil, o establecer la utilización de banda ancha como un distintivo importante en el potencial desarrollo de un país, vuelve de gran interés la concertación acerca de lo que los conceptos utilizados comprenden.

Un caso ejemplar es el de la “banda ancha”. Incluso si partimos de la semántica, entendemos que, sabiendo que la “banda” es la analogía a la velocidad de la conexión a Internet, esperaríamos que si es “ancha” sea una alta velocidad y, por contraste, debe existir una “banda estrecha”. Pero, ¿cuánto es ancho y cuánto es estrecho?

Varias versiones

En Wikipedia podemos encontrar lo siguiente: La recomendación I.113 de ITU-T, el sector de estandarización de la Unión Internacional de Telecomunicaciones, encuadra dentro de banda ancha a las técnicas capaces de transmitir más rápido que un acceso primario de RDSI, sea éste a 2 ó 6 Mbps. Sin embargo las velocidades de 512 kbps o incluso 1024 kbps se comercializan como de «banda ancha».

En el sitio de la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) se halla la siguiente definición: “El término banda ancha normalmente se refiere al acceso a Internet de alta velocidad. La Comisión Federal de Comunicaciones define al servicio de banda ancha como la transmisión de datos a una velocidad mayor de 200 kilobits por segundo (Kbps) o 200,000 bits por segundo, en por lo menos una dirección: transmisión de bajada (del Internet a la computadora del usuario) o de subida (de la computadora del usuario al Internet)”.

También en Wikipedia aparece una definición que no se basa en números: Se conoce como banda ancha en telecomunicaciones a la transmisión de datos en la cual se envían simultáneamente varias piezas de información, con el objeto de incrementar la velocidad de transmisión efectiva. En ingeniería de redes este término se utiliza también para los métodos en donde dos o más señales comparten un medio de transmisión.

Incluso hay sitios en Internet que permiten medir el ancho de banda con el que cuenta nuestra conexión, como por ejemplo este medidor en un servidor en Chile, y que dan resultados como el siguiente, estableciendo el nivel de la banda ancha.

La banda ancha universal

Diversos estudios académicos, propuestas comerciales y compromisos políticos hacen alusión a la banda ancha como una característica de la verdadera Sociedad del Conocimiento. No están lejos de la realidad. Con el constante incremento de demanda de más y mejores servicios, tanto de trabajo y aprendizaje, como entretenimiento y comercio, en la red, es fácilmente comprensible que la necesidad de contar con servicios y provisión de banda ancha de buena calidad y amplia cobertura en países como el nuestro, sea una prioridad de gobiernos, universidades y empresas en general.

Humor en banda ancha
Humor en banda ancha

—————————————————————————————————————————————

El papel de las TIC en el desarrollo

Dentro de sus actividades clasificadas como “Debate y Conocimiento”, Fundación Telefónica ha patrocinado la elaboración del estudio llamado “El papel de las TIC en el desarrollo: Propuesta de América Latina a los retos económicos actuales”, elaborado por el Dr. Raúl Katz, de la Universidad de Columbia.

En alianza con otras instituciones y empresas del país, Telefónica, FUSADES, FUNDEMAS, ESEN y La Prensa Gráfica presentaron el estudio, por medio de su autor principal, y lo complementaron con un foro público y abierto el pasado 10 de noviembre en un hotel capitalino. La dinámica permitió conocer de primera mano un resumen del contenido del libro, en voz del Dr. Katz, y posteriormente escuchar de parte de los panelistas sus opiniones y visiones en torno al rol de las TIC (Tecnologías de Información y Comunicaciones) en el desarrollo de El Salvador.

La tesis fundamental

Han existido, y seguirán produciéndose, varios estudios y documentos de análisis y recopilación de información sobre los temas ligados a la Sociedad de la Información y el Conocimiento, así como el uso productivo de las TIC en regiones más rezagadas económicamente en el mundo. Uno de los argumentos más fuertes para intentar convencer a los líderes, tanto del sector público como privado de un país de coordinar y ejecutar proyectos que abonen a este fin es que si bien es necesario destinar fondos para estimular este desarrollo, no está sujeto a la posesión de grandes recursos naturales o a los prolongados procesos de construcción de las grandes industrias mundiales.

Por el contrario, el trabajo básico de incrementar en la población salvadoreña las competencias para el aprendizaje y uso provechoso de las herramientas tecnológicas en una forma sostenida, deliberada y coordinada con todos los sectores no debiera ser una tarea difícil, y reportaría claros beneficios a las empresas, las instituciones, el gobierno y a las personas. El estudio presentado enfatiza y demuestra con series de datos estas realidades, en el contexto de nuestra región latinoamericana.

La descripción del estudio establece lo siguiente: “Basándose en un marco conceptual que recoge la investigación académica del impacto económico de las TIC, el estudio ha sido concebido como una contribución al diálogo entre gobiernos, sector privado y sociedad civil de la región. La premisa fundamental que subyace a este trabajo es que América Latina ha completado la etapa de la privatización de operadores y la apertura de los mercados de Telecomunicaciones. La combinación de privatización, liberalización y revolución tecnológica ha permitido a la región resolver algunos de los elementos clave de la llamada brecha digital social en la telefonía de voz. El libro incluye recomendaciones sobre herramientas y políticas que deberán poner en práctica los países de América Latina para maximizar el impacto de las TIC en la economía”.

Algunos temas de interés

Como una forma de introducir el libro y alentar su atenta lectura, a continuación se incluyen algunos ejemplos de ideas, gráficos y tablas contenidos en el libro y que sirven de fundamento argumental al autor para apoyar sus conclusiones y, más importante, las recomendaciones que hace en el documento a los gobiernos y pobladores de la región.

Por ejemplo, uno de los temas bastante argumentados es el incremento en la oferta y la demanda del servicio de banda ancha. En esta gráfica el autor establece la relación directa de causalidad entre la banda ancha y el incremento de productividad, la innovación y la tercerización de servicios.

Aquí se establece la vinculación entre el desarrollo económico, la especialización de la fuerza de trabajo, el incremento de la cantidad de trabajadores de la información y la necesidad de adoptar las TIC para continuar con este círculo virtuoso. Podríamos agregar que éste es un rasgo distintivo de la Sociedad de la Información.

Esta distribución de puntos entre el PIB per cápita y la cantidad porcentual de trabajadores de la información en algunos países de América Latina muestra la correlación entre ambos datos, pudiendo aproximar la conclusión de que se genera más riqueza mientras más trabajadores de la información y el conocimiento hay en un país. Es decir, el trabajo con la información tiende a generar mayores ingresos financieros.

El argumento y recomendación acerca de las PYMES y el trabajo explícito que debe existir en un país para buscar que estas empresas hagan un usos intensivo y productivo de las TIC en toda su cadena de negocios se apoya en esta gráfica, que muestra, porcentualmente, la importancia de las PYMES en la economía, en cuanto a generación de empleos, contribución al PIB y aporte a las exportaciones de algunos países.

En esta figura, el autor plantea las tres áreas que, en su opinión, deben ser abordadas como parte de las políticas de reducción de la brecha digital: la telefonía de voz, la banda ancha y el uso de las TIC en la economía.

Esta figura, de cara a las recomendaciones que hace el autor para los países, enumera algunas áreas de interacción de factores para el planeamiento de las posibles acciones a favor del desarrollo de las TIC, distribuido en servicios, productos e infraestructura. La interacción de gobierno y empresas es un elemento clave, y se refleja en este esquema.

En la parte del texto donde aparece este esquema se presenta el planteamiento de políticas públicas en tres países de Asia, como un posible ejemplo o referencia exitosa para tener en consideración en nuestros países.

Finalmente, en esta tabla el autor intenta una clasificación de algunos países en cuanto a su grado de avance respecto a los procesos de privatización y impulso de una agenda digital. Nuestro país aparece acá como un seguidor indeciso.

El reto más importante es convertirnos en instigadores líderes e innovadores, de acuerdo a la clasificación usada en este esquema.

El Proyecto Mesoamérica

La integración regional ha sido, desde hace años, un tema que está presente en las agendas presidenciales de la mayoría de gobernantes de la región centro y, más recientemente, mesoamericana.

Aunque todavía hay tareas pendientes para poder contar realmente con una estructura organizativa y política integrada -tal como sucede en otras regiones del planeta-, se han conseguido algunos avances de relativa importancia y, sobre todo, hay personas, organismos y proyectos que se dedican a este tema todo el tiempo.

Nacido como Plan Puebla Panamá en junio 2001, esta iniciativa de los presidentes de los países signatarios evolucionó en junio de 2008 hacia un concepto más amplio geográfica y políticamente, que fue denominado Proyecto Mesoamérica, y que se concibe a sí mismo como “un mecanismo de diálogo y coordinación que articula esfuerzos de cooperación, desarrollo e integración entre los diez países de la región (Belice, Costa Rica, El Salvador, Guatemala, Honduras, México, Nicaragua, Panamá, Colombia y República Dominicana), con el objetivo de mejorar la calidad de vida de sus habitantes. Así mismo, busca ampliar y fortalecer sus capacidades para hacer efectiva la instrumentación de proyectos que redunden en beneficios concretos en materia de desarrollo social, infraestructura y conectividad” (tomado de su sitio web).

Una de las razones para el cambio de nombre, perspectiva y forma de trabajo fue la adhesión al concepto de las naciones de Colombia y, más recientemente, República Dominicana.

Los componentes del Proyecto

Hay algunos temas clave que forman parte de la agenda oficial del PM, a los que les dedica recursos, esfuerzos y proyectos concretos para hacer avanzar el desarrollo de la región en dichas áreas: Energía, Telecomunicaciones, Transporte, Facilitación comercial, Desarrollo sustentable, Salud, Desastres naturales y Vivienda.

Cada una de estas áreas tiene sus grupos de trabajo, así como sus temas, problemas, dinámicas, organizaciones y proyectos específicos en los que se encuentran enfocados.

En particular, el área de las Telecomunicaciones, que está bajo la coordinación de nuestro país, busca impulsar el desarrollo de cuatro temas principales: 1) Autopista Mesoamericana de la Información (AMI), 2) Revisión de los marcos regulatorios, 3) Utilización social de las Tecnologías de Información y Comunicación (TIC), y 4) Integración regional de servicios de telecomunicaciones.

Para cumplir los objetivos planteados en estos temas, uno de los proyectos de gran envergadura, que además proviene del gran tema Energía, es la construcción del Sistema de Interconexión Eléctrica Para América Central (SIEPAC). A lo largo de esta infraestructura para el intercambio de energía eléctrica en la región, se está instalando un tendido de 36 hilos de fibra óptica que servirán para facilitar y realzar las telecomunicaciones digitales entre los países miembros.

Una apuesta público-privada para el desarrollo de la región

Esta red de fibra óptica es conocida dentro del PM como la Autopista Mesoamericana de la Información (AMI), e implica la construcción –con la participación de inversión privada- de infraestructura de telecomunicaciones de banda ancha (fibra óptica) que interconecte a los países mesoamericanos.


Las autoridades de telecomunicaciones de los países del PM acordaron utilizar la infraestructura de la línea de transmisión eléctrica del SIEPAC y tender sobre ella los cables de fibra óptica necesarios para la implementación de la Autopista Mesoamericana de la Información (AMI). La AMI permitirá satisfacer las necesidades de transmisión de voz, datos e imagen, y promover el uso de las tecnologías de la información de manera extensiva, alcanzando especialmente áreas rurales que de otra manera carecerían de este servicio.


El tendido sobre la línea SIEPAC llevará un cable OPGW con 36 fibras ópticas, ello permitirá una plataforma básica (DWDM) para la convergencia de las  diferentes señales de información.

La Empresa Propietaria de la Red (EPR) del proyecto SIEPAC decidió invertir en la construcción y operación de la red de fibra óptica para transmisión de datos, voz y video. Para tal fin se creó la empresa Red Centroamericana de Fibras Ópticas (REDCA), una sociedad público-privada cuyo objetivo principal es desarrollar, diseñar, financiar, construir, mantener, operar y explotar las redes de fibra óptica e interconectar los sistemas de telecomunicaciones de la región.

Dado que se espera que esta red óptica esté operativa en el cuarto semestre de 2010, ya han comenzado las conversaciones y planteamientos dentro de los grupos de trabajo respectivos, acerca de cómo se utilizará la capacidad instalada.

Educación, investigación, desarrollo social

Congruentes con la visión de los respectivos gobiernos en los países que forman parte del Proyecto Mesoamérica, y con un buen nivel de coincidencia en la orientación acerca del mejor uso para esta capacidad, algunos de los aspectos que ya han aparecido en la mesa de trabajo, son la educación en general; el desarrollo de las capacidades de la población de la región para comunicarse entre sí de forma eficiente y accesible financieramente; el trabajo cooperativo de los investigadores y científicos de la región; la mejor coordinación y comunicación entre los funcionarios de los gobiernos; el apoyo a distintos programas sociales regionales en salud, prevención y atención de desastres, etc.

Al ser una iniciativa que combina al sector público, representado por los funcionarios gubernamentales, y al sector privado, representado por algunas empresas específicas que han invertido en el proyecto, el alto potencial de comunicaciones con el que contará la EPR (Empresa Propietaria de la Red) y REDCA (Red Centroamericana de Fibras Ópticas) será utilizado para estimular y apoyar el desarrollo de la región, así como buscar su sostenibilidad financiera, comercializando parte de su capacidad entre clientes privados.

Así como los estados construyen y mantienen las carreteras que cruzan las fronteras, y de esa forma facilitan el intercambio de bienes, personas y servicios, lo que a su vez estimula y fortalece las economías locales, del mismo modo las autopistas de la información, materializadas en estas redes de fibra óptica son un apoyo que los estados están en el deber de proveer a sus ciudadanos, buscando la mejora del nivel de vida de los mismos.

Innovación tecnológica en Casa Presidencial

Un par de semanas después del traspaso del mando presidencial en nuestro país empezó el trabajo. Las acciones tempranas incluyeron conformar un equipo básico inicial de trabajo y constituir la unidad de Innovación Tecnológica e Informática del Gobierno de El Salvador (ITIGES), bajo la Secretaría Privada de la Presidencia.

Para no inventar la rueda, y sacar provecho del camino recorrido, las primeras tareas fueron recopilar y revisar los documentos, proyectos y todos los insumos que se pudieran obtener, de lo que se había discutido, analizado y documentado en el pasado, en El Salvador, acerca de los temas relacionados al uso de las Tecnologías de Información y Comunicación (TIC), el gobierno electrónico y la ruta de nuestro país hacia la Sociedad de la Información y el Conocimiento.

Al mismo tiempo, mirando hacia la propia casa, se crea la Red del Conocimiento, al interior del ejecutivo, con el objeto de intercambiar conocimientos, experiencias y recursos, de forma que al mismo tiempo que se aprenden lecciones a partir de lo que otros han hecho, se comparten aplicaciones y personal con habilidades específicas, y se busca lograr ahorros en los niveles de inversión en tecnología.

Áreas a transformar, niveles y líneas estratégicas

A partir de los planteamientos elaborados anteriormente por grupos multidisciplinarios, multisectoriales y multiexperimentados, contenidos en documentos como la Política Nacional de Informática, el programa ePaís, el estudio de factibilidad de Gobierno electrónico, el Plan Maestro de Tecnologías de Información, y otros, se desarrolla una visión estratégica para el rol que el gobierno central, desde Casa Presidencial, puede y debe ejecutar para colaborar en el avance de estos temas en el país.

El trabajo que se halla en desarrollo, así como las tareas por realizar en los meses y años venideros, busca en última instancia incidir en la transformación positiva y favorable de la sociedad, el gobierno y la economía. Para ello, las acciones concretas que se definan deben tener incidencia en uno o más de los niveles siguientes: país, gobierno, institucional.

Fuente: ITIGES
Fuente: ITIGES

Para atender estas acciones, se han definido siete líneas estratégicas. Lógicamente, algunos de los proyectos, iniciativas y acciones concretas que se designen dentro de estas líneas tendrán efectos en varias áreas y varias de las mismas líneas que se tienen en el horizonte estratégico.

Las siete líneas estratégicas son, por ahora:

En el nivel Institucional

Modernización y optimización de los procesos del estado

En el nivel Gobierno

Generación y orientación de proyectos tecnológicos

En el nivel País

Educación y aprendizaje continuo

Universalización del acceso a las TIC

Investigación, desarrollo y culturización del conocimiento

Competencias tecnológicas y capital humano

Productividad competitiva

Fuente: ITIGES
Fuente: ITIGES

Evaluando el planteamiento

Este planteamiento es bastante completo, y considera en forma explícita la autotransformación que debe existir dentro del gobierno, al incluir la “modernización y optimización de los procesos del estado” en las instituciones estatales, así como la “generación y orientación de proyectos tecnológicos” que abarquen al gobierno como una sola entidad y/o que tengan incidencia en el nivel de servicios que el gobierno central y los gobiernos locales prestan a los ciudadanos.

En el nivel País, las cinco líneas estratégicas atienden a aspectos de los pobladores de la nación que buscan brindar sostenibilidad a mediano y largo plazo al planteamiento general, al desarrollar y posibilitar que una mayor cantidad de personas aprendan, comprendan y compartan el conocimiento, de forma que todos hagan uso productivo de las herramientas tecnológicas.

Tomando como referencia las cinco líneas estratégicas del programa ePaís (Marco legal e institucional, Infraestructura de TIC nacional y regional, Desarrollo de la sociedad del conocimiento y recursos humanos en TIC, Gobierno electrónico de El Salvador e Industria de TIC y comercio electrónico), podemos señalar que sería conveniente agregar en forma explícita las líneas estratégicas de “Marco legal e institucional”, “Infraestructura de TIC nacional y regional”, y “Industria TIC y comercio electrónico”.

Fuente: ePaís
Fuente: ePaís

Estos elementos deben atenderse con igual interés que los mencionados antes, pues también apoyan la permanencia y culturización de la Sociedad del Conocimiento en nuestro país.

En el marco legal se incluyen y esperan leyes, reglamentos y normas que avalen, orienten y establezcan claramente las reglas del juego

El marco institucional nos brindará instituciones formales que puedan solicitar apoyo a gobiernos y pueblos amigos, así como a instituciones cooperantes, que puedan llevar a cabo alianzas, convenios y contratos, y que apoyen a otros actores nacionales que lo necesitan

La infraestructura comprende equipos, redes, conexiones, fibras oscuras e iluminadas, tendidos que abarquen todo el territorio nacional y más allá.

La industria TIC puede ser muy amplia, pero abarca la industria propia de desarrollo de software, hardware y firmware, cámaras de empresas tecnológicas, emprendimientos de alta tecnología, capitales de riesgo, parques tecnológicos, innovación empresarial.

El comercio electrónico ya está presente y debe seguir siendo estimulado y fortalecido, por medio de leyes y políticas apropiadas. La ampliación de mercados es importante para generar mayores y mejores ingresos al país.

Buenas noticias

La existencia y dotación de recursos de la unidad de Innovación Tecnológica e Informática del Gobierno de El Salvador (ITIGES), así como la adscripción organizativa y capacidad de convocatoria con la que se le ha dotado es una muy buena noticia, que aporta importantes y valiosas esperanzas a nuestro país.

Hay mucho por hacer. Se ha dicho en repetidas ocasiones. Nuestro país tiene serias necesidades en muchas áreas, algunas de ellas literalmente de vital importancia. El campo de las TIC y todo lo que cae en el gran tema de Sociedad de la Información no es la panacea para nuestros serios problemas. Sin embargo, ciertamente es una herramienta clave y una de las pocas tecnologías que puede ser adoptada en forma multitudinaria, y con efectos positivos en la gran mayoría de las otras disciplinas.

Encaminar a El Salvador hacia una versión de sí mismo con dominio de las TIC y el conocimiento es una apuesta segura, por su potencial contribución a la solución de cualquiera de nuestros otros problemas.

La espiral necesidad-satisfacción-necesidad

La interrelación y trabajo conjunto que debe ocurrir entre dos disciplinas académicas, científicas o tecnológicas diferentes conlleva un buen número de habilidades de comunicación de parte de todos los involucrados, precisamente para lograr transmitir mensajes que cruzan dos o más fronteras del conocimiento y marcos conceptuales.

En el caso concreto de la informática, dado que se trata de una disciplina eminentemente de servicio a otras profesiones y oficios, la habilidad para comunicarse de una forma eficiente y completa es de suma importancia. El lenguaje técnico, tanto verbal como escrito y gráfico, que se usa dentro de la carrera de la computación es necesario y muy útil, pues es capaz de contener y transmitir mucha información importante para que los análisis, diseños y codificación de los programas realicen lo que deben ejecutar, según han sido concebidos.

Pero ese lenguaje propio de la computación, al igual que en el caso de otras disciplinas, es tan valioso para los profesionales de esta disciplina, como inútil y molesto para la mayoría de los demás profesionales.

La tarea de transmitir una idea, una concepción, o la descripción de necesidades para que una persona que intentará diseñar un sistema para solventarlas, no es sencilla para ninguna de las partes. Las preconcepciones, desconocimientos y experiencias previas que tenemos cada uno de nosotros sobre cada concepto intervienen en todas la comunicaciones que realizamos, y esto establece un límite importante en el mensaje que transmitimos y recibimos.

La conocida y antigua metáfora de la construcción del columpio ilustra en forma humorística esta realidad tan importante.

Por si no se alcanza a ver, las leyendas en cada figura se leen así, de izquierda a derecha, de arriba abajo:

  1. La solicitud del usuario
  2. Lo que entendió el líder del proyecto
  3. El diseño del analista de sistemas
  4. El enfoque del programador
  5. La recomendación del consultor externo
  6. La documentación del proyecto
  7. La implantación en producción
  8. El presupuesto del proyecto
  9. El soporte operativo
  10. Lo que el usuario realmente necesitaba

Las figuras 1 a 5, así como la 10, reflejan fases del proceso de desarrollo de un sistema de información. Las figuras 6 a 9 tienen que ver con otros aspectos del entorno del mismo tipo de proyectos. Cada una de estas figuras daría mucho material para reflexionar, discutir y, con este enfoque, también bromear.

Las barreras

De forma igualmente alegórica, se pueden listar frases cortas que intentan mostrar parte de los prejuicios y concepciones, acertadas o no, que tanto los usuarios (entendiendo como tales a las personas que utilizan los sistemas de información, independientemente de su formación, experiencia, edad, y otras características) como los desarrolladores (abarcando de este modo a todos los que intervienen en el proceso de desarrollo y construcción de un sistema de información.

Barreras de usuarios

Las computadoras reducen la creatividad

“La computadora tuvo la culpa”

Las computadoras desplazan empleados

Son sólo para “iniciados”

Pueden hacer cualquier cosa

Son sinónimo de programación

“Alguien más lo puede hacer por mí”

“Si tengo una computadora voy a trabajar todo el tiempo”

“Pretenden hacernos ver como tontos”

“Estoy demasiado viejo para aprender”

Es muy difícil de aprender

“Podría cometer errores”

Los métodos antiguos funcionan bien

Los técnicos no pueden expresarse sin usar un lenguaje confuso y rimbombante

“Mi área de saber no es susceptible de llevarse a computadora”

Problemas de “mala sangre” entre las personas

Barreras de desarrolladores

Un buen trabajo no se aprecia

Los usuarios no saben lo que quieren y no pueden definir sus necesidades

Los usuarios no le dedican el tiempo necesario al desarrollo del sistema

Los usuarios cambian las prioridades de los proyectos de desarrollo

“Mi trabajo es desarrollar una aplicación (mecanizar lo que se hacía manualmente) y nada más”

“Yo debería estar trabajando como jefe”

Los usuarios nunca están satisfechos: siempre quieren más

La espiral necesidad-satisfacción-necesidad

Precisamente esta última idea, la de que los usuarios nunca parecen satisfechos, es la que da origen a una sencilla concepción gráfica para explicarlo: la espiral necesidad-satisfacción-necesidad.

Una amplia porción del mercado de la industria de tecnología de información y comunicaciones (TIC) está formado por el desarrollo y/o adecuación de aplicaciones informáticas para atender y resolver los procesos y problemas que se dan en todas las empresas e instituciones del mundo.

El reto principal ha sido, desde siempre, que el diseñador y el programador comprendan el fenómeno que se pretende mecanizar y automatizar con ayuda de las computadoras. Existen un buen número de metodologías para intentar acercar a los profesionales del diseño y la programación a los demás procesos. Estas metodologías y enfoques han evolucionado con los años, lo mismo que las tecnologías de desarrollo, lo que permite velocidades mayores entre la definición de requerimientos y la presentación de prototipos.

En este proceso, es esperado que, después de desarrollar una primer versión de una aplicación, que haya observaciones, cambios y ajustes. Aun cuando la aplicación se entregue y se dé por concluida, siempre habrá una nueva necesidad que envía de nuevo a los desarrolladores a su estación de trabajo. Esta es la espiral necesidad-satisfacción-necesidad en el desarrollo de sistemas informáticos.

Lo que es más importante, sin embargo, es que lejos de considerar esta constante interacción como una molestia o una señal de insatisfacción por parte del usuario, debe ser visto como el involucramiento y aceptación del sistema por sus destinatarios, al punto de desear mejorarlo todo el tiempo, reconociendo que la aplicación provechosa de las TIC en cualquier negocio puede marcar la diferencia.

Algunas propuestas

Es importante establecer y acordar que los objetivos de unos y otros, usuarios y desarrolladores, son los mismos, pues se encuentran definidos en relación a los grandes objetivos de la empresa o institución donde laboran. Siendo ése el caso, es vital considerar lo siguiente:

Para asegurarse de considerar al usuario en el desarrollo

El desarrollo es para satisfacer los objetivos del usuario, no de los analistas

El grupo de sistemas no debe asumir la responsabilidad del desarrollo individualmente

Debe nombrarse un administrador del proyecto por parte del grupo usuario (“campeón”)

El grupo usuario debe entender y aceptar el compromiso y responsabilidad del desarrollo, proveyendo tiempo para las reuniones y evaluaciones de seguimiento

La participación del grupo usuario debe ser activa, no pasiva

Los planes en el tiempo deben ser realistas, considerando los recursos y la dedicación de los mismos

El grupo de sistemas debe tomar en consideración los comentarios y opiniones de todos los usuarios, llevando a discusión general aquellos que sean conflictos potenciales

La(s) gerencia(s) involucradas deben mantenerse informadas de los avances y problemas relevantes del desarrollo

Los nuevos requerimientos deben

Responder a los objetivos generales de la organización y el sistema

No entrar en conflicto con requerimientos de otros usuarios

Ser rentables, en términos de costo-beneficio

Reflejar un entendimiento claro de las potencialidades del sistema

Ser justificados desde la perspectiva del usuario

Los factores humanos que deben mantenerse presentes

1. Mantener la sencillez

2. Ser consistente

3. Diseñar y mostrar terminación de tareas

4. Apoyar la sensación de control del usuario

5. Proveer atajos y formas alternas de hacer las cosas

6. Manejar errores adecuadamente

7. Permitir la reversión de acciones fácilmente

8. Usar efectivamente la sorpresa o diferenciación

9. Evitar confundir al usuario

Computación en la nube

Si un amigo nos dice que “andamos en la nube”, nuestra primera interpretación posiblemente será que nos está llamando “distraído” o “descuidado”. ¿Puede entonces un computador “estar o andar en la nube”?

La denominación puede sonar, cuando menos, extraña. Si se pluraliza, “computación en las nubes” puede transmitir las ideas de una forma distraída o descuidada de trabajo en la informática (“Fulano siempre anda en las nubes”), o de algo de precio elevado (“el costo de ese servicio está en las nubes”).

Pero así, en singular, y proveniente de la traducción de “Cloud Computing”, refleja una de las tendencias contemporáneas en la forma que las organizaciones, empresas e instituciones, de todo tamaño, tienen para realizar tareas computacionales, con sus ventajas y posibles inconvenientes.

El origen del nombre reside en los diagramas, usados desde hace muchos años, en los que la red de redes, Internet, es representada como una nube a la que se accede desde los computadores y servidores localizados en cualquier parte del mundo. Una nube resultó ser una imagen idónea para representar es conjunto millonario de aparatos y dispositivos, así como contenidos, datos y aplicaciones que están “allá afuera”, “en la nube”.

Sin embargo, es importante aclarar que el concepto no es nuevo. En la década de los 80, por ejemplo, Scott McNealy, Director ejecutivo de Sun Microsystems por muchos años, había establecido que “la red es la computadora”. El uso de terminales sin mucho poder computacional conectándose a un “cerebro” central fue por mucho tiempo el paradigma funcional de la computación empresarial, y esta vuelta retro con el nombre renovado “en la nube” puede verse como una reencarnación de aquellos propósitos.

¿Qué es la computación en la nube?

El concepto está basado en tener acceso a todos nuestros datos y programas desde donde sea a través de Internet (que es la nube). Es decir, aprovechar el almacenamiento en línea o usar un centro de procesamiento remoto para ejecutar las operaciones de una empresa. (Google Docs, Google Apps, Amazon Web Services, etc.)

Otra forma de verlo es tener una computadora portátil con un hardware y software mínimo de arranque, que simplemente aprovecha al máximo el ancho de banda de Internet para procesar datos que se encuentran guardados en algún lugar remoto, pero que no permite notar la diferencia de tenerlos en nuestra máquina o en algún lugar del otro lado del mundo.

A nivel personal, se puede pensar en los almacenamientos y procesamientos de documentos, presentaciones y hojas electrónicas que se hacen en la red, a veces sin copias en computadores locales, y que permiten agregar valor, como el trabajo colaborativo a distancia, la descarga de archivos propios estando en ubicaciones remotas, etc. Este blog, y la mayoría de blogs, son un ejemplo de ello.

Más ampliamente, en una situación ideal, pero no lejana de la realidad, en la computación en la nube se habla de enormes grupos de servidores y un ancho de banda de red muy amplio y un acceso bastante rápido.

Esta idea abre la puerta a otras posibilidades: alquilar un computador virtual, a la medida, con una velocidad de procesamiento para nuestras necesidades, capacidad de memoria y disco según nuestros requerimientos, y con el sistema operativo que sea apropiado a nuestras operaciones. Una vez nos han configurado este computador para nuestro uso, “en la nube”, podemos comenzar a poblarlo con nuestros datos y aplicaciones.

Otra posibilidad interesante es el alquiler del servicio de procesamiento, es decir, el ya ampliamente discutido paradigma del “software como servicio”. En este caso, el proveedor ofrece, además de la plataforma, el equipo, procesador, memoria y almacenamiento, los programas informáticos adecuados a las necesidades del cliente.

Ventajas y desventajas

Hay un continuo debate en torno al tema. Los defensores arguyen que los costos para las empresas que contratan estos servicios “en la nube” se reducen, y se incrementa la flexibilidad y velocidad de respuesta ante nuevos requerimientos, además de que las aplicaciones se encuentran disponibles como la red: 7 x 24 y desde todo el mundo.

En su contra, hay que decir que aun existen temores acerca de la seguridad y privacidad de los datos contenidos. Acuerdos legales y copias de respaldo en las propias manos pueden ayudar a mitigar estas posibles desventajas.

Entonces, los pro y contra se pueden resumir así:

A favor

Ahorro. Libera de gastos tanto en infraestructura como en recursos humanos. No necesitaremos personal que gestione el sistema porque otros lo administran por nosotros.

Escalabilidad. Se trata de un sistema extremadamente flexible, las necesidades pueden corresponderse con nuevos recursos casi automáticamente por el proveedor.

Ubicuidad. Al estar en la nube y no en el escritorio podremos acceder a los datos estemos en el sitio en el que estemos.

En contra

Privacidad de los datos. El tráfico de los datos estará continuamente en manos de otros. Por eso es necesario ser muy escrupuloso con la elección del proveedor, debe ser una empresa de total confianza y con una gran solvencia pública.

Dependencia de una empresa. Por eso vuelve a ser necesario elegir con mucho cuidado. Las soluciones de las grandes empresas sector suelen ser una solución segura.

Como todas las tecnologías lo mejor que tiene la Computación en la Nube es que es una posibilidad más para elegir, pero cada cual tiene que hacer balance y decidir cual es la mejor elección para su negocio.

La computación como “commodity”

Si abstraemos un poco la reflexión a partir de esta tendencia “en la nube”, podemos pensar que los servicios de alquiler de procesamiento de datos, de uso de software, almacenamiento, respaldo y custodia de información se están volviendo cada vez una mercadería de fácil intercambio, un “commodity”.

La definición de “commodity” es: Término anglosajón que se aplica a todo producto vendido a granel, a menudo se vende en los mercados financieros. Los más comunes son el oro, el café, el petróleo, etc. y las materias primas que se transan en los mercados mundiales.

Por extensión, anticipamos que esta forma de negocio puede ser destacada en el futuro, con su respectiva porción del mercado latinoamericano, tanto del lado de los proveedores como de los consumidores de los servicios ofrecidos “en la nube”.

Así que la próxima vez que le pregunten si usted anda “en la nube” no lo tome a mal. Quizá sea un buen augurio a su próximo negocio exitoso.

5 de Octubre: Día del profesional de la informática

Un experto en los procesos, un artesano de los datos, un guardián de la información, un aprendiz permanente, un asesor tecnológico. Son varias las caracterizaciones que puede tener el profesional contemporáneo de la informática.

Igualmente variadas son las expectativas que se tienen hoy en día respecto a un profesional de las disciplinas científicas y tecnológicas que tienen relación con las tecnologías de información y comunicaciones. Por cierto, la cantidad y variedad de profesiones, tanto de nivel técnico como de los niveles de grado y postgrado, han ido en veloz crecimiento en los tiempos recientes, siendo este fenómeno un reflejo de los avances de la tecnología en los laboratorios y en el mercado.

Con frecuencia utilizo la figura de las profesiones de la salud para establecer una analogía con la evolución de las carreras en el campo de la informática. En los primeros años en los que se comenzó a practicar la profesión de la medicina, es claro que los médicos de ese entonces conocían mucho, sino todo, lo que había que conocer dentro de la medicina hasta el día en estaban viviendo. El conocimiento que existía en el mundo acerca de las formas de remediar los dolores, achaques, males y enfermedades, de todas las partes y funciones del cuerpo humano, era bastante reducido, y podía ser que una solo persona tuviera un dominio aceptable y bastante completo de lo que se podía hacer en cada caso. Por supuesto, también eran relativamente pocos los padecimientos que podían ser atendidos.

Aun hoy en día, en lugares alejados, poco habitados, o situados en regiones desposeídas, no es extraño encontrar un médico que debe contar con una amplia gama de competencias y conocimientos, para intentar proveer alivio a la mayoría de pobladores de la vecindad.

En la actualidad, sin embargo, la ciencia de la salud ha avanzado tanto que es imposible que un solo ser humano conozca con profundidad todas las áreas del saber médico, y a nadie se le ocurriría acudir a un oftalmólogo para que le ayude a remediar problemas estomacales, por ejemplo. Es más, existe un elevado grado de especialización en la medicina, de suerte que es muy probable que después de una primera consulta, una persona sea remitida a la clínica de un especialista para determinar con más precisión el diagnóstico, y recomendar el tratamiento más idóneo.

Una profesión con múltiples facetas

El área de la informática está viviendo esa misma evolución: desde lo general y el conocimiento completo, hasta lo muy específico y un conjunto limitado de conocimientos focalizados en alguna área específica.

Esto trae algunas consecuencias. Por ejemplo, las empresas deben saber qué tipo de especialista necesitan contratar para suplir sus necesidades, y definir de una manera más precisa el perfil de los candidatos. Esas mismas empresas han debido crear más de una plaza para cubrir los distintos requerimientos que tienen en el área de los sistemas, las redes, el mantenimiento, las bases de datos, la tecnología Internet, la seguridad, etc.

Tanto los gerentes generales, los tomadores de decisión y los órganos máximos de dirección de las empresas, instituciones y organizaciones de todo tipo y tamaño, así como los profesionales de la informática contemporáneos deben conocer sus limitaciones, y si bien los profesionales de la informática pueden estudiar y aportar opiniones sobre diversos temas, tendrá mucho peso la experiencia concreta en la que se haya especializado.

Un ecosistema particular

En un sistema basado en computadoras que funcione en cualquier empresa o institución hay al menos tres elementos que lo constituyen, conocidos en inglés como hardware, software y peopleware. Dicho coloquialmente y en español, se trata del equipo, los programas y el personal.

Cuando se piensa en sistemas de información y alta tecnología, los primeros conceptos e imágenes que acuden a nuestra mente son de máquinas con grandes capacidades de cálculo, procesamiento y tratamiento de información, así como los impresionantes programas o paquetes de aplicación que continua y diariamente pueden hacer nuestro trabajo un poco más fácil y más eficiente.

El tercer elemento de estos sistemas es el personal a cargo de estos equipos y aplicaciones, es decir, los profesionales y técnicos que deben conciliar los objetivos de la empresa en que laboran con las potencialidades que la tecnología ofrece. Con el desarrollo y expansión de la necesidad de contar con personal calificado, instituciones como la Universidad Centroamericana José Simeón Cañas, por ejemplo, comenzó a ofrecer la carrera de Computación en 1978 en El Salvador, habiendo sido la primera en hacerlo. En la actualidad existen varias instituciones de educación superior y tecnológica que ofrecen estudios y cursos afines en el área de la computación.

Las responsabilidades

Por la misma razón de ser una disciplina muy joven, y con una evolución tan acelerada en el nivel de especialización requerido, es comprensible que no sea muy conocida la necesidad y realidad de esta separación e integración de trabajo multifacético.

También es importante tener claras las funciones y responsabilidades que competen a los profesionales de la informática, y los roles que juegan los demás funcionarios y cargos dentro de una empresa o institución, en cuanto al manejo de la información.

La transición de un departamento centralizado de computación hacia la posibilidad de realizar muchas funciones de tratamiento de información y datos en casi todas las unidades de una empresa continúa en proceso de desarrollo, y en muchos casos, por ejemplo, ha reducido el tamaño de los equipos que digitan la información que se ingresa a un sistema de información, porque ha trasladado esta función a lugares más cercanos de donde se realizan las operaciones.

Por ejemplo, una empresa distribuidora de mercancías de cualquier tipo, con sucursales en todo el país, en el pasado debía colectar todos los documentos de venta de cada sucursal, y enviarlos físicamente para que fueran procesados en la central. Un paso posterior fue contar con una pequeña “central” de procesamiento en cada sucursal, y llevar a la central la información por separado, para que fuera consolidada. La situación y la tecnología actual le permite mantener los datos actualizados, en línea y en tiempo real, ingresando las facturas, por ejemplo, por el mismo vendedor en cada sucursal, independientemente de la distancia entre la sucursal y la central.

Para hacerlo, intervienen una buena cantidad de especialistas: redes, seguridad, base de datos, desarrollo de sistemas, analista de procesos, mantenimiento, energía eléctrica, etc. Aunque se mantiene algún traslape de conocimientos, las responsabilidades van siendo cada vez más compartidas y atomizadas.

Una felicitación y reconocimiento especial

A todas y todos esos especialistas, que detrás de bambalinas hacen posible que la información de cada empresa e institución se mantenga actualizada y segura, al mismo tiempo que se logran las características de calidad de la información: oportunidad, concisión, integridad, pertinencia, brevedad, adaptabilidad, etc.

A todas y todos los ingenieros, licenciados, técnicos y empíricos que, desde sus propias, y muchas veces ocultas, bases de operaciones, realizan su importante aporte a la eficiencia y efectividad de las actividades de cada empresa.

A todas y todos los colaboradores que van más allá de sus funciones nominales y, comprendiendo la dimensión e importancia de su papel en su empresa o institución, aporta las recomendaciones, llamadas de atención, sugerencias e ideas innovadoras, para apoyar los objetivos de su organización.

A todas y todos ellos, con motivo del Día Nacional del Profesional de Informática, celebrado en El Salvador el 5 de octubre de cada año, felicidades y gracias, por hacer de éste un mejor país.

IPv6: Más direcciones que arenas en la playa

Tal vez haya escuchado el acrónimo IPv6, o quizá le haya pasado desapercibido, pero se trata de uno de los cambios más importantes que se está desarrollando en Internet, en forma casi silenciosa. Se trata, dicho brevemente, de un cambio en el protocolo de comunicaciones en el que se empaquetan los mensajes que circulan en Internet, una vez segmentados, para que viajen de un punto a otro, y se vuelvan a armar en el extremo de llegada.

Un protocolo es un conjunto de reglas y definiciones que los fabricantes de los aparatos y dispositivos que se usan para un propósito específico deben seguir en el momento de diseñar y manufacturar sus productos. En este caso, el protocolo IP (Protocolo Internet) debe ser acatado por los productores de equipos para comunicarse en Internet.

Actualmente, la mayor parte de comunicaciones se realizan utilizando la versión 4 del protocolo IP, pero se están realizando esfuerzos intensos para dar a conocer los mecanismos de transición de ésta a la versión 6, pues se considera importante lograr el cambio total hacia este nuevo conjunto de reglas y acuerdos.

¿Qué hacen las direcciones IP?

Una de las características más reconocidas y fáciles de comprender de las direcciones IP, independientemente de la versión, es que cada dispositivo que está conectado a Internet debe tener un identificador único, llamado dirección IP, para que los mensajes y paquetes dirigidos a ese dispositivo puedan llegar en forma correcta y completa a su destino.

Las direcciones IPv4 usan 32 bits (dígitos binarios) para construir los identificadores únicos, separados, para efectos de comprensión del ser humano, en 4 bloques de 8 bits, cada uno de los cuales puede tener un valor que va desde 0 hasta 255. Esto completa 256 valores, que es la cantidad de combinaciones binarias que se producen con cuatro dígitos, obtenida matemáticamente de elevar 2 a la cuarta potencia.

Haciendo un poco de matemática binaria, comprendemos que con 32 bits disponibles, la cantidad de direcciones únicas en Internet son un poco más de 4 mil millones. Si bien es un número bastante grande, ya hace varios años los ingenieros de Internet comenzaron a prever que en algún momento esa cantidad de direcciones y de posibles dispositivos conectados simultáneamente a Internet podría quedarse corta, atendiendo a las tendencias de crecimiento de la red de redes.

Después de mucha discusión técnica en varias partes del mundo, e incluso de una versión intermedia del protocolo (IPv5) que fue desechada, se arribó al consenso sobre el nuevo diseño, y gracias a la versión 6 del protocolo IP, que establece direcciones de longitud de 128 bits, será posible contar con “3.4 multiplicado por 10 elevado a la 38 potencia” direcciones.

Esta es una cantidad de direcciones IP accesibles para comunicar dispositivos en Internet tan grande, que algunos han llegado a comparar dicha cantidad con la de arenas en la playa, y de estrellas en el universo. Es decir, se trata de magnitudes que resultan hasta difíciles de imaginar.

Un poco de tecnología

Si bien este apartado contiene elementos quizá excesivamente tecnológicos, será breve y tal vez abone a la comprensión adicional del tema de la necesidad de migración de una versión a la otra en todas nuestras instalaciones de red conectadas a Internet.

Además de los cambios en la cantidad de direcciones, la nueva versión también comprende modificaciones en la estructura de los paquetes de datos que viajan en el ciberespacio. Baste decir esto muy brevemente, de forma que si alguien se interese, pueda estudiar un poco más sobre el futuro del Protocolo Internet.

Los paquetes de la versión IPv4 tienen 192 bits, (10 campos, 2 direcciones y opciones).

Los paquetes de datos en la versión IPv6 tienen 320 bits (6 campos y 2 direcciones).

¿Por qué se desea realizar el cambio a IPv6?

El esfuerzo de esta migración es masivo e intenso, supone capacidad técnica y una clara comprensión de los aspectos involucrados, así como de equipo, hardware y software, diseñado expresamente para poder conocer y dar paso a los paquetes con esta nueva versión.

A pesar de ello, es un proceso que debe realizarse en la mayoría de instalaciones, y en el menor plazo posible. Un solo motivo existe detrás de estos esfuerzos: tener más direcciones IP disponibles en la red mundial de Internet.

La mayor cantidad de direcciones son necesarias para atender la creciente demanda de las mismas, a nivel mundial, para:

* Miles de millones de nuevos dispositivos: teléfonos celulares, PDAs, dispositivos de consumo, automóviles, aparatos de medición, etc.

* Miles de millones de nuevos usuarios: China, India, países con economías emergentes, etc.

* Tecnologías de acceso “always-on” (siempre necesitan estar en línea)

* Nuevos tipos de aplicaciones y nuevos mecanismos de acceso que requieren direcciones únicas, sin admitir mecanismos de traducción de direcciones, como los conocidos NAT (Network Address Translations).

Adicionalmente, la nueva versión del protocolo IPv6 tiene como ventajas:

* Capacidades ampliadas de direccionamiento

* Autoconfiguración y reconfiguración sin servidor (“plug and play”)

* Mecanismos de movilidad más eficientes y robustos

* Incorporación de encriptado y autenticación en la capa IP

* Formato de la cabecera simplificado e identificación de flujos

* Soporte mejorado de opciones y extensiones

* Más facilidad para configurar la seguridad de acceso

Para conocer más sobre IPv6

El 14 de octubre próximo, en la Universidad Centroamericana José Simeón Cañas, a partir de las 8 de la mañana, y durante todo el día, tendremos la oportunidad de conocer más acerca del nuevo protocolo IPv6, gracias a un seminario taller que será impartido por Jordi Palet Martínez, un verdadero profeta del IPv6 a nivel mundial.

Jordi Palet Martínez
Jordi Palet Martínez

La entrada es gratuita, y solamente debe registrarse enviando su nombre, empresa y dirección electrónica a [email protected].

Nombres de dominio y propiedad intelectual

Los avances tecnológicos no se limitan a nuevos productos y servicios. Con frecuencia tocan, tarde o temprano, otras disciplinas del conocimiento y la experiencia, propiciando cambios en las mismas, estemos o no conscientes de todo este proceso.

Una de las disciplinas del saber que debe estar muy atenta a las repercusiones de los cambios tecnológicos es la del Derecho. Cada vez es más importante que los abogados y los estudiantes de las ciencias jurídicas se enteren, discutan y generen propuestas de reglamentos, leyes y procedimientos que tengan en consideración el cambio cultural que nos atañe a todos, y que ha sido motivado por la introducción y difusión mundial del aprovechamiento de las telecomunicaciones, las computadoras y la red Internet.

Por ejemplo, un tema que ha sido estudiado, definido y trabajado por años por grandes grupos de abogados, a nivel mundial, es el de la propiedad intelectual. Su registro y protección, y su relación con el sector productivo, las regalías, las franquicias, las patentes, la investigación e innovación, el intercambio de información, las licencias, la vigencia de los permisos, la disputa, el arbitraje, la mediación y todos los procesos relacionados, han sido constantemente revisados, de forma que han ido evolucionando, aunque en forma rezagada, respecto a las tecnologías.

Recientemente se llevó a cabo en el país un seminario sobre este tema, organizado por la Cámara Americana de Comercio, AmCham, denominado “Propiedad intelectual: innovación para el desarrollo de El Salvador”, en el que se incluyeron ya algunos temas referidos a estos traslapes entre las disciplinas tecnológicas y las jurídicas.

Nombres de dominio y marcas

Como se explicó en dicho seminario, el origen de los nombres de dominio en Internet se remonta a la necesidad de que los seres humanos utilicemos nombres que sean mnemónicos, normalmente constituidos por letras, tal como “www.miempresa.com.sv“, en vez de una dirección numérica, como 192.134.12.35, para localizar un computador con la información que nos interesa.

Las marcas, por su parte, tuvieron su origen en un aspecto estrictamente comercial. “Una marca es todo signo o medio que sirve para individualizar productos y servicios en el mercado. Es uno de los tres tradicionales signos distintivos del empresario; los otros son el nombre comercial (que sirve para individualizar a un empresario en ejercicio de su actividad) y el rótulo del establecimiento (que individualiza el establecimiento mercantil en sí)”.

Es decir, los nombres de dominio son las direcciones de Internet expresadas simplemente para facilidad del usuario. Si bien fueron diseñados con el fin de permitir a los usuarios localizar computadores de manera fácil, los nombres de dominio han adquirido mayor importancia en tanto que indicadores comerciales y, como tales, han provocado conflictos con el sistema de identificadores comerciales que existía antes de la llegada de Internet y que está protegido por derechos de propiedad intelectual.

En algunos países, se siguen las recomendaciones y propuestas de la Organización Mundial de la Propiedad Intelectual, OMPI, respecto a la forma de abordar y tratar las posibles afrentas a la protección de este tipo de propiedad. Las definiciones de la OMPI ya contemplan, desde hace años, el tema puntual de los nombres de dominio.

Una exigencia en el Tratado de Libre Comercio

Los tratados internacionales que cualquier país suscribe, ya sea en forma bilateral o en formato de adhesión nacional a un texto, se convierten en ley nacional. El Tratado de Libre Comercio con los Estados Unidos, del que nuestro país fue el primero en la región centroamericana en firmar, hace referencia explícita a los nombres de dominio, vinculándolos con la protección a la propiedad intelectual. En particular, dentro del capítulo 15, que se refiere a Propiedad Intelectual, se incluyen los siguientes párrafos:

Artículo 15.4: Nombres de Dominio en Internet

1. A fin de abordar la piratería cibernética de marcas, cada Parte exigirá que la administración de su dominio de nivel superior de código de país (“country-code top-level domain” o “ccTLD”) disponga de procedimientos apropiados para la resolución de controversias, basado en los principios establecidos en las Políticas Uniformes de Resolución de Controversias en materia de Nombres de Dominio.

2. Cada Parte exigirá que la administración de su dominio de nivel superior proporcione acceso público en línea a una base de datos confiable y precisa con información de contacto para los registrantes de nombres de dominio. Al determinar la información de contacto apropiada, la administración del ccTLD de una Parte podrá dar debida consideración a las leyes de la Parte que protegen la privacidad de sus nacionales.

Buscando proteger los registros de nombre de dominio, y dando cumplimiento a estos dos requerimientos, SVNet, la entidad que registra los nombres de dominio terminados en SV, mantiene en su sitio web el texto completo de su Política Uniforme para Resolución de Controversias, un Reglamento para ejecutar esta política, así como una consulta a su base de datos con los nombres y referencia de las personas que sirven como contacto administrativo para cada nombre de dominio.

El proceso de resolución de controversias

Para que de inicio un proceso de esta naturaleza, se debe cumplir con 3 criterios, uniformemente aceptados en muchos países:

i) El nombre de dominio registrado por el titular es idéntico o similar, hasta el punto de crear confusión, con respecto a una marca de productos o de servicios sobre la que el demandante tiene derechos;

ii) El titular del nombre de dominio no tiene derechos o intereses legítimos respecto del nombre de dominio en cuestión;

iii) El nombre de dominio ha sido registrado y se utiliza de mala fe.

Cada uno de estos criterios debe ser demostrado y probado por el demandante, y así dar inicio a un proceso que, si no es posible resolver por la vía amistosa, habrá de pasar por la negociación, la mediación y el arbitraje, si fuera necesario.

En casos más dramáticos, y sobre todo en países de mayor desarrollo tecnológico, productivo y comercial, la problemática de registrar un nombre de dominio sin contar con los derechos para hacerlo, conocida como “ciberocupación” o “cybersquatting”, ha dado pauta para demandas y transacciones financieras millonarias, y con cierta relevancia en los medios de comunicación.

En nuestro país, SVNet ha establecido una primera relación con el Centro de Mediación y Arbitraje de la Cámara de Comercio Americana (AMCHAM) (www.amchamsal.com), para que, en el caso de que surja la necesidad por parte de una entidad, persona o empresa, que se sienta afectado, exista una posibilidad de acudir a un ente nacional para dirimir el caso.

A partir del establecimiento de estos mecanismos de consulta y de proceso, se busca reducir la comisión de infracciones a la protección de la propiedad intelectual en El Salvador, en el caso particular del registro de los nombres de dominio SV.