Archivo de la categoría: Recién llegado

La neutralidad de la red y la SOPA

Las carreteras por las que circula un turista y su familia cuando viaja de un país a otro, o cuando visita los sitios arqueológicos dentro de un territorio, son las mismas que utilizan los furgones que llevan ayuda humanitaria a pueblos y ciudades que lo necesitan, así como los camiones que trasladan drogas, armas o mercancía de contrabando entre las fronteras de naciones vecinas.

En el caso de la red terrestre de carreteras, en algunos países y regiones, es posible optar por tomar la vía libre y llegar un tiempo después al destino, o bien seguir la carretera con peaje, en la cual tras pagar una cuota es posible completar el viaje en menor tiempo y quizá en una autopista de mayor calidad. Cualquiera puede tomar la opción de su preferencia. ¿Qué pasaría si solamente se permitiera a los vehículos de modelos superiores al año 2000 que usaran la carretera con peaje y mejores condiciones, y todos los demás automóviles debieran usar la vía alterna, más lenta y menos cómoda?

La neutralidad de la red, aplicada sobre todo a Internet, se refiere a que los contenidos que circulan en la red deben hacerlo en forma irrestricta e indiscriminada, sin considerar las marcas o modelos de los equipos, sin preferir a uno u otro proveedor de contenido, sin favorecer uno u otro servicio provisto en Internet; manteniendo igualdad en la calidad del servicio, la prioridad en el acceso y de la velocidad de carga y descarga independientemente de lo que cada usuario haga en su dispositivo terminal.

Unos a favor y otros no

Internet nació sin mayores restricciones. En los albores de esta gran red las únicas limitantes eran las dadas por la tecnología y la cobertura. A medida se crearon nuevos dispositivos y mejores protocolos de telecomunicaciones, se inventaron nuevas formas tecnológicas como el acceso inalámbrico y la transmisión de datos por medio de las redes celulares, estas limitaciones han ido cediendo paulatinamente, y cada vez son más las personas en el mundo que acceden a las posibilidades de comunicación, publicación y difusión de Internet.

Los promotores de la neutralidad de la red sostienen que ése es el estado que debe prevalecer en la forma de administrar Internet en todo el mundo. Sus argumentos pasan por el respeto de la libertad que cada usuario de la red debe tener para escoger el servicio o el contenido que desea usar, revisar o publicar en Internet; los proveedores de conectividad, los gobiernos o las empresas que proveen servicios o contenidos no deben hacer nada que favorezca a uno sobre otro sitio web en la red, por ejemplo. Esto incluye la oposición a hacer uso de cualquier tipo de censura externamente impuesta.

Hay otros que matizan esta libertad del usuario, y argumentan que, en ciertos casos, es posible que sea necesaria ciertas restricciones en el acceso a la información, tales como atendiendo a la edad de los cibernavegantes, o según el tipo de contenido que se expone, cuando está claro que su libre acceso puede dar pauta a un peligro real, como la fabricación de bombas caseras o las recetas para formular poderosos venenos, por ejemplo.

También hay otros que creen que desarrollar algún tipo de discriminación en lo que circula a través de la red también puede contribuir a la innovación y la creación de nuevos servicios, o a mejorar la calidad de los mismos. Para ellos, establecer diferencias en lo que los usuarios pueden acceder es un aliciente para que las empresas y los creadores sepan que pueden generar ganancias con sus innovaciones.

Leyes acerca de neutralidad

En algunos países se han establecido leyes y normas que favorecen la neutralidad de la red, buscando que no se creen ventajas de acceso para un usuario sobre otro en base a la cantidad de dinero que le pagan a su proveedor, más allá del ancho de banda acordado.

En Chile, por ejemplo, la ley vigente establece normativas en los siguientes aspectos:

  • Información detallada: Características comerciales de los planes (velocidad de subida y bajada, límites de descargas garantías del servicio), Tasa de Agregación o Sobreventa y Tiempo de Reposición del Servicio.
  • Libertad de acceso: La ley de Neutralidad garantiza el derecho de acceder libremente a cualquier tipo de contenido o servicio legal en Internet, sin que el proveedor pueda negar dicho acceso o interferir en tus decisiones de navegación o consumo: descargas de archivos (P2P), proveedores de video en línea, juegos en línea, telefonía IP, tethering desde el celular, etc., o cualquier contenido o servicio que se pueda encontrar en la red.
  • Indicadores de calidad: La empresa que provee Internet deberá realizar, trimestralmente, mediciones de los indicadores técnicos de calidad de sus servicios, en base a protocolos técnicos aprobados por la Subsecretaría de Telecomunicaciones.

Debates, protestas y SOPA

Vinculando la neutralidad de la red con otros temas sujetos a largos debates, como las leyes de protección de derechos de autor, los temas se vuelven más delicados.

En particular, leyes como la propuesta en Estados Unidos a través de la SOPA (Stop Online Privacy Act) que busca frenar la piratería de música, libros, películas y otros materiales registrados por leyes que protegen la autoría y propiedad intelectual, también dará las herramientas legales para que, en casos comprobados (que serán potencialmente muchos), se puedan clausurar los servicios que presta un proveedor de contenidos, como Google, Yahoo!, Facebook, Twitter, y los proveedores de conectividad.

A raíz de esta ley propuesta que se espera pase a aprobación el 24 de enero, los principales proveedores de contenido de Estados Unidos han acordado, como medida de protesta, que el día 23 de enero de 2012 llevarán a cabo un “apagón general” de sus servicios, por lo que ellos consideran un atentado a la libertad de realización de sus actividades a través de una potencial censura que les causaría millones de dólares en ausencia de ganancias.

La mayoría de éstas son motivaciones financieras y económicas. Sin embargo, el remedio podría llegar a ser peor que la enfermedad, al reducir o anular la neutralidad de la red. ¿Cuál debería ser el tratamiento justo y correcto?

 

IPv6 para todos

La transición del protocolo de direcciones IP (Protocolo Internet) versión 4 hacia la versión 6 se ha venido solicitando e impulsando por las organizaciones que administran y registran el uso de direcciones en el mundo, llamadas Registros Regionales de Internet (RIR, por sus siglas en inglés), desde hace varios años.

La razón principal es que con el nuevo diseño del protocolo de direcciones la cantidad de direcciones disponibles aumenta de un total que está en vías de agotamiento a una magnitud inmensamente grande.

Para efectos de la distribución y gestión de direcciones, el mundo se ha dividido en 5 regiones, según se aprecia en el siguiente mapa.

El agotamiento de direcciones IPv4 ya sucedió en la región de Asia Pacífico. APNIC agotó su inventario de direcciones IPv4 el 14 de abril de 2011. Se estima que Europa (RIPE NCC) y el norte de América (ARIN) durarán un poco más de 6 meses, América Latina (LACNIC) entre 18 y 24 meses, y en África (AfriNIC) podrán llegar a un poco más de 2 años.

La migración

Es conveniente, sobre todo para los proveedores de conectividad a Internet, comenzar a investigar acerca de las tecnologías disponibles para lograr la transición de un protocolo a otro. Es un cambio que impacta a todo el mundo conectado, y funcionará mejor y sin problemas cuando todo el mundo haya realizado el cambio.

La transición a IPv6, además de ser una necesidad cada vez mayor y más apremiante, traerá algunas ventajas, aparte de la cantidad casi ilimitada de direcciones. Al conocer el protocolo, se facilita la innovación, la creación de nuevos negocios, de más empleos, de nuevas aplicaciones y servicios, de incrementos en el consumo de ancho de banda y en última instancia, de mayores ingresos.

Mientras tanto, se están implantando tecnologías que permiten la coexistencia de equipos y aplicaciones que utilizan IPv4, IPv6 o ambos protocolos. Cuál de estas técnicas, herramientas, servicios y aplicaciones utilizar, depende mucho de cada caso. De ahí la importancia de que los técnicos, ingenieros y directivos de las empresas dedicadas a Internet conozcan lo que se ha desarrollado, probado y verificado en el mundo en este tema.

Por ejemplo, aunque IPv6 no es más seguro que IPv4, hace extremadamente difícil que un atacante que utiliza la “fuerza bruta” (barrido de puertos, o “port scanning”) vulnere un equipo servidor o una aplicación: en una conexión ADSL de 1 MB, un atacante tarda 5 minutos en recorrer 254 direcciones en un bloque /24 IPv4, pero tardaría 5,300 millones de años para una red /64 de IPv6.

IPv6 para todos, el libro

Atendiendo a esta necesidad de que la mayoría de personas conozcamos lo básico, y que sobre todo nuestros técnicos, profesionales y demás personal involucrado en el apoyo tecnológico en el campo de las redes y las comunicaciones por Internet, el capítulo Argentino de la Internet Society (ISOC-Ar), auspició la publicación del libro “IPv6 para todos” que está disponible para su descarga en forma gratuita en varias direcciones en Internet.

El contenido del documento se halla segmentado adecuadamente, pues atiende a diversos grupos de la sociedad que podrían tener interés en encontrar su propia respuesta al tema de la transición a IPv6.

Usuario final

Para el usuario final, se ofrecen los apartados de Introducción; Instalación de IPv6; Comprobación de IPv6; Configuración avanzada de IPv6; Mecanismos de transición de IPv6; y Desinstalación de IPv6.

Redes residenciales

Para los hogares, se cubren los temas de Introducción; ¿A qué se denomina “SOHO” (Oficina pequeña, Oficina en casa)?; Construyendo un SOHO con IPv6; Identificando las partes de un SOHO; Determinando los componentes que requieren configuración; Configurando los componentes del SOHO con IPv6; y Referencias.

Empresas

Para las empresas, se incluye Introducción a redes empresariales; Tareas previas para una implementación de IPv6; Planificando IPv6 en redes empresariales; y Transición a IPv6 en una red empresarial y agotamiento de IPv4.

Entornos académicos y de investigación

Para la academia, el libro toca los temas Introducción; ¿Por qué y para qué se utiliza IPV6 en educación y investigación?; Redes académicas en el mundo; Desplegando IPv6 en la universidad / centro de investigación; Consideraciones adicionales; y Conclusiones.

Proveedores de Servicio Internet (ISP)

Los proveedores de conectividad y servicios pueden encontrar A quién está dirigido el capítulo; Componentes del servicio; Implementación de IPv6 en la red; Cómo recibir bloques IPv6 del Registro Regional; Plan de numeración; y Conclusiones.

Servicios

El libro también incluye una serie de apartados para una lista de servicios básicos en la red, y su provisión usando IPv6: Telnet, SSH, FTP, Mail, Transmisión multimedia, Web, DNS, Clientes y Referencias.

En resumen, el libro es un magnífico documento introductorio para los distintos entornos y actores que deberán tomar acciones en el breve plazo, si no es que ya lo están haciendo.

Gracias a los autores y a ISOC Argentina.

La industria metal mecánica se actualiza en el ITCA

La fabricación de cualquier tipo de productos ha sido beneficiada, desde la llamada revolución industrial del siglo XIX, por la mecanización de sus procesos. Lograr que algunas actividades repetitivas dentro de una línea de producción sean realizadas por máquinas en lugar de por manos humanas fue lo que dio paso al continuo crecimiento en la cantidad, calidad, productividad y eficiencia en las cadenas de manufactura, sobre todo en bienes que incluyen tecnología.

Con el desarrollo de las computadoras, los métodos numéricos y todo lo que condujo a la miniaturización de los circuitos integrados y los microprocesadores, ha sido posible agregar más funcionalidades, capacidades y niveles de precisión a las máquinas herramientas que se usan para fabricar componentes y partes de los productos. De esta forma, las computadoras pueden construir y hacer las cosas que antes hacíamos los humanos, como también aquéllas que antes no podíamos fabricar manualmente, por pequeñas, precisas, pesadas, etc.

La inclusión de máquinas herramientas con alta tecnología a la industria de un país permite elevar su competitividad y fabricar productos que puedan ser exportados y comercializados en los mercados globales.

Sin embargo, adquirir estas máquinas no es suficiente. Es clave contar con la mano de obra y los técnicos que tengan el conocimiento y la experiencia necesarios para configurar, reparar, dar mantenimiento preventivo y obtener el mayor provecho de estos dispositivos. El conocimiento requerido para trabajar con estas máquinas es una combinación de electrónica, mecánica, hidráulica, electricidad, matemática y otras disciplinas.

Una excelente noticia

Por esas razones, se vuelve una gran noticia para El Salvador saber que la Escuela Especializada en Ingeniería ITCA FEPADE acaba de inaugurar en el campus Santa Tecla dos laboratorios para que sus docentes y estudiantes puedan aprender y practicar las competencias y habilidades necesarias para atender este campo de la industria metal mecánica.

El Centro de Alta Tecnología en CNC (CATEC)

Este es un centro de formación para programar y operar máquinas de Control Numérico Computarizado, y cuenta con laboratorios y talleres provistos de maquinaria y equipos de alta tecnología e instructores certificados por la empresa alemana TUV Rheiland Akademie.

El CATEC cuenta con Aula de clases, Centro de cómputo CAD CAM, Laboratorio de máquinas didácticas, Taller de máquinas industriales y Laboratorio de medición 3D.

Foto cortesía de ITCA FEPADE

El laboratorio está al servicio de las carreras técnicas e Ingenierías en las especialidades de Mecánica, Ingeniería Industrial, Mecatrónica y Automotriz. También se impartirán cursos cortos y diplomados de formación profesional y servicios para la empresa privada, y de esta forma contribuir al desarrollo de la industria en El Salvador.

El Centro de Alta Tecnología en Mecatrónica (CATM) segunda fase

Centro certificado a nivel internacional por la empresa alemana FESTO, especializado en automatización industrial, que cuenta con personal certificado en las áreas de neumática e hidráulica Industrial, Programación de PLC (Controlador Lógico Programable; siglas en inglés), Control de Procesos Industriales y Sistemas de servo posicionamiento.

El CATM prestará servicios a los estudiantes en las especialidades de Mecatrónica, Mecánica, Electrónica Industrial y Eléctrica, así como a la industria salvadoreña en cursos cortos y diplomados en las áreas de automatización industrial.

Foto cortesía de ITCA FEPADE

¿Quiénes son beneficiados?

La instalación de estos laboratorios ha sido posible gracias al apoyo del Gobierno Alemán y la Cooperación de ese país, a través de GIZ, así como varias empresas privadas, en Alemania y El Salvador, que confían en la calidad y dedicación de la Escuela ITCA, para poder proyectar el beneficio de esta capacitación hacia los docentes, estudiantes y empresarios salvadoreños.

Han comenzado los estudiantes de ITCA a utilizar estos equipos, habiendo completado un módulo CNC 15 alumnos de la carrera de Mecatrónica, ya que es parte de su plan de estudios. Adicionalmente, en estos momentos están cursando la asignatura 18 estudiantes de Mecánica General, también como parte de su carrera. La carrera propia de CNC comenzará el año 2012.

Foto cortesía de ITCA FEPADE

En 2012, los laboratorios serán usados por los estudiantes del ITCA de las carreras:

  • Técnico en Ingeniería Mecánica, opción CNC
  • Técnico en Ingeniería Mecánica, opción Mantenimiento Industrial
  • Técnico en Ingeniería Mecatrónica
  • Técnico en Ingeniería Industrial
  • Técnico en Ingeniería Automotriz
  • Ingeniería Mecatrónica
Foto cortesía de ITCA FEPADE

Actualmente, ITCA cuenta con 8 profesores certificados como «Instructores de CNC» por la empresa alemana TUV Rheiland Akademie. Esta certificación tiene vigencia hasta 2014. Adicionalmente, los docentes se estarán capacitando técnicamente en noviembre sobre uso eficiente de herramientas de corte, por un experto de la empresa alemana HENKA.

Está claro que se trata de un logro importante para nuestro país, a través de la Escuela Especializada en Ingeniería ITCA FEPADE, y se espera que este esfuerzo sea acompañado por la industria salvadoreña, tanto al hacer uso de estas facilidades, como al emplear alumnos, durante el período de educación de los jóvenes, mediante la modalidad dual, y al contratar a los técnicos graduados bajo estas carreras.

La firma electrónica busca una nueva oportunidad

El Ministerio de Economía ha comunicado que se encuentra habilitada la consulta pública para una propuesta de “Ley de Firma Electrónica” en el espacio de foros digitales del sitio web de Casa Presidencial. La dirección para inscribirse, descargar la ley, conocer otras opiniones y documentos y participar es http://foros.presidencia.gob.sv/firma.

Como procedimiento de construcción de una ley, ya es una buena noticia que se utilice la tecnología Internet para difundir el documento y recibir los comentarios al mismo. Sería interesante conocer cuántas propuestas de ley han seguido o seguirán, de aquí en adelante, un proceso similar, antes de ser presentadas a la Asamblea Legislativa.

Por coincidencia, en el foro de Gobernanza de Internet, que se celebra en Nairobi en estos días, se ha establecido hay una correlación entre los países que utilizan el comercio electrónico, aquel facilitado por las tecnologías informáticas e Internet, y los que han logrado mayores porcentajes de desarrollo y crecimiento económico. Una ley de firma electrónica es un paso imprescindible para cualquier nación que busque participar en el mercado mundial aprovechando todos los medios disponibles en la actualidad.

Una deuda de varios años

Para El Salvador, la definición legal de la firma electrónica y otros elementos relacionados constituyen una deuda de más de 10 años. En el año 2000 se desarrolló, gracias a la participación de reconocidos despachos de abogados y otros profesionales e instituciones, una primera propuesta de una ley de Comercio Electrónico.

Este documento contenía apartados acerca de firma electrónica, certificados digitales y otros temas, y tomaba como referencia las leyes de otros países, así como la ley modelo en este rubro desarrollada por la Comisión de las Naciones Unidas para el Derecho Mercantil Internacional (CNDUMI, mejor conocida por sus siglas en inglés UNCITRAL).

A pesar de ser sometida a consulta pública, así como a la revisión de consultores extranjeros contratados para ese fin, la ley no llegó a la Asamblea salvadoreña. Años después fue revisada nuevamente, y algunos temas fueron sacados de la propuesta con el objetivo de lograr mayores consensos y apoyos, para finalmente dejar únicamente lo referente a la firma electrónica. Sin embargo, tampoco logró salvar los filtros y obstáculos en su proceso de desarrollo.

A principios de este año 2011 se retoma el tema, y después de procesos internos de revisión y consulta en el gobierno, se presenta públicamente una nueva propuesta, basada en las anteriores así como en las legislaciones de otros países, que pretende definir este tema tan importante para nuestro comercio electrónico y otros procedimientos que se pueden ejecutar por los medios digitales, cada vez más diseminados.

Nos estamos quedando atrás

Muchos países cuentan desde hace varios años con legislaciones en los aspectos que rigen las transacciones comerciales, judiciales, tributarias, entre otras, lo que les faculta para sostener relaciones con mejores garantías de protección de sus inversiones e intercambios de información y dinero.

Argentina, Chile, Colombia, Perú, México, España, Venezuela, Panamá, así como las naciones de la Comisión Económica Europea, Canadá y Estados Unidos, entre muchos otros, cuentan desde tan temprano como 1995 con sus respectivas leyes de firma electrónica y/o comercio electrónico.

La redacción, revisión y eventual aprobación de leyes como la que hoy nos ocupa, en las que se entrelazan temas de tecnología informática y definiciones y acuerdos legales, se convierten en elementos que pueden definir el nivel de avance de un país, así como sus perspectivas en el concierto mundial.

La ley de firma electrónica de 2011

La propuesta bajo revisión puede descargarse del mismo foro de discusión, y contiene algunos elementos que definen las particularidades salvadoreñas, así como las generalidades de cara al mundo.

Por ejemplo, la ley establece que la autoridad pública en la que residirán varios procesos vinculados es la Superintendencia General de Electricidad y Telecomunicaciones, SIGET. Esto supone que dicha dependencia deberá contar con la capacidad legal y técnica, en recursos humanos, programas y equipos, para realizar acciones como la acreditación de los proveedores de servicios de certificación electrónica.

La protección de la privacidad de los datos personales que deben ser almacenados por las entidades que certifican que una persona es quién dice ser, avalando su firma electrónica, es otro elemento que la ley contempla. Esto es un buen principio y antecedente para reforzar, en los respectivos códigos y reglamentos, el resguardo de la información personal de cada ciudadano.

Se establece la equivalencia funcional entre la firma que hacemos normalmente en un papel o documento físico y la firma electrónica certificada, e incluso la posible admisión de la firma electrónica simple. También queda establecido el valor probatorio de dicha firma. Estos conceptos, necesarios en leyes de esta naturaleza, son un parte aguas respecto a las ideas tradicionales que han perdurado por años.

De acuerdo a esta ley, similar a cualquier ley de firma electrónica en otros países, La firma electrónica certificada tiene los siguientes efectos:

a) Vincula un mensaje de datos con su titular de manera exclusiva;

b) Permite la verificación inequívoca de la autoría e identidad del signatario;

c) Asegura que los datos de la firma estén bajo control exclusivo del signatario;

Los aportes son bienvenidos

Hay más apartados en la ley, y conviene que las empresas y personas interesadas los revisen y comenten públicamente, de forma que se pueda alcanzar un consenso que haga más fácil su aprobación en la Asamblea Legislativa.

No solamente se abre la puerta a mayores y mejores relaciones comerciales con el mundo, sino también es posible pensar en nuevas posibilidades de negocios, más acordes con los tiempos y las demandas contemporáneas.

Se ha dado un nuevo impulso a esta ley. Es conveniente que lo aprovechemos, y cumplamos con esta deuda de largo tiempo con nuestro país.

¿Podemos insertarnos en un mundo modularizado?

En una misión de largo plazo, y gracias a la cooperación de Corea con El Salvador, se encuentra laborando desde julio de 2011 en el Consejo Nacional de Ciencia y Tecnología (CONACYT) de nuestro país el doctor Wonseok Hwang, consultor voluntario “senior”, experto en el desarrollo de empresas de tecnología de información y comunicaciones.

El doctor Hwang desarrolló una primera reunión con representantes de algunas universidades del país, para compartir ideas sobre la posibilidad de desarrollar una industria de fabricación de componentes para dispositivos electrónicos, y de esa forma ser parte de la cadena de valor del sector de la manufactura tecnológica que ha llevado riqueza y desarrollo a países como la nación de la que es originario el doctor Hwang.

Desde que se desarrolló y perfeccionó el concepto de la producción en serie y la separación en partes y etapas de fabricación de la mayoría de productos, se logró obtener los niveles de eficiencia y productividad que hacían rentable la industria manufacturera. Los bienes más sofisticados y complejos requieren varios niveles de agregación de valor al producto en proceso, desde la conversión de las materias primas hasta el ensamblaje del producto terminado.

Traducción propia de gráfica de Dr. HWang

El punto de partida de la argumentación es el cambio de paradigma que ha venido sucediendo en los años recientes en la cadena de valor de la industria electrónica: ninguna empresa y ningún país puede fabricar todos los componentes de un producto, y es necesario una distribución del trabajo y una especialización en la manufactura de las partes.

Traducción propia de gráfica de Dr. HWang

Algunos países extraen y procesan las materias primas, las exportan a los países que se encargan de transformar estas materias en partes o componentes primarios. Estas empresas o países, a su vez, consolidan, ensamblan y prueban estos componentes primarios, dando paso a componentes secundarios, módulos o subsistemas hasta que, finalmente, los fabricantes de productos terminados completan el proceso.

Experiencias en El Salvador

Si nos limitamos a la industria de dispositivos electrónicos, como una industria de alto rendimiento económico por la dosis de tecnología empleada, en el país han existido experiencias y planteamientos estratégicos en el pasado.

Por ejemplo, las fábricas de la empresa Texas Instruments, Inc. que operaron en el país hasta 1985 producían circuitos integrados, reguladores de voltaje y otros componentes electrónicos de sofisticada y compleja elaboración, que cumplían estándares internacionales, mantenían niveles de calidad comparables a las de los países más avanzados y se vendían a los fabricantes de productos terminados, tales como computadores, aparatos de medición, dispositivos, etc.

La empresa AVX Industries, en la zona franca San Bartolo, se mantiene fabricando capacitores cerámicos y de tantalio, entre otros productos, exportando estos bienes y habiendo recibido reconocimientos internacionales como planta independiente en normas CECC 30000 (Europea), lSO 9000 y QS 9000 (norma para la industria automotriz norteamericana).

Planteamientos estratégicos

Asimismo, hemos desarrollado planteamientos estratégicos que podrían habernos orientado hacia el logro de los objetivos de posicionamiento a nivel mundial como un país que es capaz de producir exitosamente partes, componentes y módulos en los mercados secundarios de fabricación.

Por ejemplo, la Política Nacional de Informática, elaborada por el Comité Nacional de Informática y aprobada por el CONACYT en 2000, establecía como su segunda gran línea estratégica: “Estimular el desarrollo de empresas dedicadas a la producción con calidad mundial de productos y/o servicios de Tecnologías de la Información y Comunicaciones, así como propiciar alianzas estratégicas con empresas extranjeras del sector enfatizando la transferencia de tecnología”. Para lograrlo, se proponían 4 líneas de trabajo:

  1. Promover leyes y programas de apoyo que estimulen la creación de empresas de Tecnologías de Información y Comunicaciones y la producción y comercialización de productos y servicios informáticos.
  2. Promover la creación de políticas de incentivos especiales para inversionistas del sector de Tecnología de información y/o Comunicaciones.
  3. Garantizar a las empresas de alta tecnología que se instalen en El Salvador, condiciones económicas y fiscales estables y favorables.
  4. Identificar y promover el desarrollo y/o adopción y aplicación de estándares internacionales en los productos y servicios de Tecnologías de Información y Comunicaciones, tanto para el mercado local como para el de exportación.

Más recientemente, en 2006, el Programa ePaís, formulado por los varios sectores reunidos en la Comisión Nacional para la Sociedad de la Información, fue menos ambicioso en este campo, y se limitó a insinuar tímidamente este sector, por medio de dos objetivos dentro de la línea estratégica de Industria TIC:

  • Establecer un ambiente atractivo para la inversión extranjera directa en empresas de TIC
  • Desarrollar una Industria de TIC competitiva con un enfoque al mercado externo.

Factores clave

El cambio de paradigma incluye el crecimiento en la actualidad de la industria de partes y componentes, el decremiento de la industria de ensamblaje y el surgimiento de una importante industria de distribución de los productos a nivel mundial.

Traducción propia de gráfica de Dr. HWang

Si a nuestro país le interesara desarrollar un segmento y un posicionamiento dentro de esta cadena de alto valor económico, al menos deberíamos considerar los siguientes factores clave:

  • Ponernos todos de acuerdo en éste y otros objetivos comunes: Revisar nuestros planteamientos estratégicos y ratificarlos, ajustándolos a la situación actual y buscando un compromiso real de todos los sectores.
  • Formar verdaderos clústers industriales: En el concepto de Michael Porter, los clústers industriales son alianzas y trabajo coordinado del sector privado, el gobierno y la academia. Este tipo de clústers podrían tener esperanzas de obtener resultados.
  • Buscar un aliado inversionista con trayectoria en el mercado: El campo de la alta tecnología o la manufactura de componentes electrónicos no puede iniciar de cero. De decidir entrar a este campo, nuestro debería buscar alianzas y prestaciones especiales para atraer la inversión de una corporación o maraca consolidada en el mercado mundial, ofreciendo las mejores condiciones para poder establecer una planta de componentes intermedios en el país, con la experiencia y tecnología de empresas con largo historial en el mercado.

Santa Tecla se refresca, esta vez digitalmente

Después de algunos meses de preparación, diseño y desarrollo, la ciudad de Santa Tecla ha renovado su relación con la tecnología e Internet, a través de un sitio web que ofrece varios servicios y elementos de información, cuentas en las redes sociales más populares en el país, incluyendo un canal en YouTube, una red de telecentros y una serie de puntos de acceso inalámbrico en la municipalidad.

Santa Tecla es la cabecera del departamento de La Libertad, alberga a más de 120 mil habitantes, y de acuerdo al informe de PNUD, hay solamente 5.9 personas en extrema pobreza por cada 10 mil pobladores. Su Centro Histórico está conformado por edificaciones ancestrales, entre ellos el Palacio Municipal (ahora restaurado y convertido en centro de cultura), el Hogar Adalberto Guirola, la Iglesia El Carmen y la Penitenciaría Municipal (hoy reconstruido y convertido en el Museo Tecleño).

Tradicional e históricamente, Santa Tecla ha sido una ciudad con un clima fresco, atractiva turísticamente y con un alto respeto por sus tradiciones. El 28 de enero de 1865 fue nombrada cabecera del distrito de su mismo nombre y cabecera del departamento de La Libertad.

El proyecto Ciudad Digital

Con el proyecto de digitalización, se busca “hacer de Santa Tecla un gobierno electrónico mediante el uso de las tecnologías de información y comunicación para mejorar los servicios e información ofrecidos a la ciudadanía, aumentar la eficiencia y eficacia de la gestión pública municipal e incrementar sustantivamente la transparencia y la participación ciudadana”.

Se plantean 5 áreas de trabajo, correspondientes a igual número de objetivos específicos. Se listan las actividades principales en cada área:

Plataforma web 2.0

  1. Tejido asociativo y emprendedurismo
  2. Consulta de tasas e impuestos municipales
  3. Bolsa de empleo municipal
  4. Portales de cultura, desarrollo económico, educación, género, turismo, convivencia-seguridad y servicios públicos
  5. Intercambio de experiencias
  6. Campañas informativas

Masificación de uso de las TIC

  1. Formación tecnológica en 3 telecentros centralizados y 6 descentralizados (CICCE)
  2. Creación y puesta en funcionamiento del telecentro móvil (tele-bus)
  3. Adherencia a la RED mundial de telecentros
  4. Ferias tecnológicas anuales
  5. Puesta en funcionamiento la guía turística interactiva
  6. Mantener e instalar puntos de acceso a Internet
  7. Tecnología aplicada a la vida

Centro de Monitoreo y Control Ciudadano

  1. Establecimiento de asocios público-privado
  2. Instalación de cámaras en Centro Histórico, mercados, parques y edificios municipales (36 en el año 1)
  3. Crear y fortalecer un centro de monitoreo municipal con personal y tecnología de punta

Plataforma de Educación Virtual

  1. Diseñar e instalar la plataforma de educación virtual
  2. Cursos de educación en línea para niñez, juventud, mujeres y tercera edad
  3. Gestión y establecimiento de convenios con Universidades, el MINED y Centros de formación virtual
  4. Administración y actualización de la biblioteca virtual

Gestión Municipal

  1. Sesiones y Audiencias del Concejo Municipal en línea
  2. Creación del Departamento de Ciudad Digital
  3. Cualificación del capital humano
  4. Información sobre contrataciones UACI y RR.HH
  5. Rendición de cuentas
  6. Presupuesto municipal
  7. Mecanismos de acceso a la información
  8. Puesta en línea de redes sociales
  9. Mecanismos de comunicación efectiva

Por lo pronto

El plan es amplio, y ya ha comenzado a destacar resultados: acceso inalámbrico en el Cafetalón y otras áreas; operación de telecentros; capacitación continua de habitantes de la ciudad; desarrollo de servicios e información a través de sus sitio web; nombre de dominio propio para la plataforma de servicios: www.santatecladigital.gob.sv.

Santa Tecla Digital tiene acuerdos de cooperación con diversos organismos en el ámbito de tecnología: Asociación Conexión y Asociación SVNet (participación en el Día de Internet), Fundación Clic (temas relacionados con arte digital), y la Escuela Especializada en Ingeniería ITCA FEPADE, para apoyo en temas académicos de TIC y el desarrollo del sitio web.

En el sitio web www.SantaTeclaDigital.gob.sv ya se puede tener acceso a las siguientes secciones:

El concepto de Gobierno Electrónico Municipal ejecutado en Santa Tecla establece un precedente importante para otros municipios de El Salvador.

Combina la gestión edilicia de cara a la población, atrayendo y fomentando la participación de los ciudadanos y empresas; anticipa la concreción de la ley de transparencia y acceso a la información pública, colocando información de licitaciones, ordenanzas, impuestos y otros en línea; fortalece a su población por medio de capacitaciones continuas, acceso a telecentros y a conexiones gratuitas a Internet inalámbrico, así como una bolsa de empleos y otros.

Hay espacio para hacer más, y sin duda éste es el primero de muchos avances más en el desarrollo de un concepto moderno de interrelación en tres vías (Gobierno municipal, Ciudadanos, Empresas) en la ciudad de Santa Tecla, ahora refrescada digitalmente.

Traspaso de estafeta en la calidad salvadoreña

El pasado 21 de julio, la Asamblea Legislativa aprobó, después de varios meses de discusiones, modificaciones y argumentaciones, la nueva “Ley de Creación del Sistema Salvadoreño para la Calidad”. Esta ley deroga y reemplaza en varios aspectos y artículos a la Ley que ampara al Consejo Nacional de Ciencia y Tecnología, CONACYT, en todo lo relativo a la definición, supervisión y ejecución de los procedimientos que sirven para asegurar la conformación de la calidad en los productos y servicios que se producen y/o se comercializan en el territorio nacional.

Hasta la fecha, y desde su creación en julio de 1992, la entidad responsable por los temas de calidad en nuestro país es el CONACYT, debido a que, en el momento de su creación, tanto la responsabilidad sobre el desarrollo de la ciencia y la tecnología, así como la vigilancia y el control de la calidad de bienes y servicios se hallaban carentes de una entidad que definiera las políticas nacionales para El Salvador.

La intención de esta ley es especializar más el estudio, desarrollo y aplicación de las normas, la acreditación, la reglamentación técnica y la metrología; ampliar el desarrollo de capacidades profesionales de los técnicos; y fortalecer los recursos materiales, financieros y humanos de las entidades que se encargarán a partir de la vigencia de la ley de los temas de calidad en el país.

Los nuevos organismos de calidad

Las funciones relativas al cuidado de la calidad en nuestro país se mantienen fundamentalmente tal como se vienen ejecutando hasta el día de hoy. Lo que cambia es la definición, estructura y adscripción de las entidades que deben definir el rumbo estratégico y dirigir la ejecución de las actividades que se realizan para desarrollar esas funciones.

En su artículo 2, la nueva ley establece los componentes del Sistema Salvadoreño para la Calidad (SSC): El organismo superior es ahora el Consejo Nacional de Calidad, que será el ente rector del Sistema. Existirán cuatro organismos rectores especializados: El Organismo Salvadoreño de Normalización (OSN), el Organismo Salvadoreño de Reglamentación Técnica (OSARTEC), el Organismo Salvadoreño de Acreditación (OSA), y el Centro de Investigaciones de Metrología (CIM); adicionalmente se creará la Oficina Administrativa del Sistema Salvadoreño para la Calidad (OAC).

Adicionalmente, según la ley, formarán parte del SSC las entidades públicas y privadas, acreditadas y otras que funcionen con autorización del Estado, que desarrollen actividades relacionadas con normalización, reglamentación técnica, acreditación, metrología, certificación, inspección, vigilancia, pruebas o ensayos.

La creación de un “Sistema de Calidad” es un paso importante respecto a la conformación actual, pues atendiendo a la definición de un sistema, se tratará de una configuración multisectorial con una coordinación y ejecución estructurada, de forma que haya unidad de objetivos y reducción de multiplicación innecesaria de consumo de recursos.

El Consejo Nacional de Calidad estará conformado por 9 funcionarios (de alto nivel) del sector público, 2 representantes del sector productivo, 1 del sector profesional, 2 del sector académico (1 de ellos de la Universidad de El Salvador), 1 de las ONG vinculadas a la defensoría del consumidor, 1 del sector científico y tecnológico, y los directores de los 4 organismos rectores (con voz pero sin voto), para un total de 20 personas, 16 de éstas con capacidad de decisión.

Las Comisiones Directivas de cada organismo estarán conformadas de la siguiente manera:

  • OSN: El director técnico, 5 representantes del sector público, 1 de las asociaciones, 1 del sector productivo: total 8 personas.
  • OSARTEC: El director técnico, 7 representantes del sector público: total 8 personas.
  • OSA: El director técnico, 4 representantes del sector público, 1 del sector productivo: total 6 personas.
  • CIM: El director técnico, 4 representantes del sector público, 1 de la UES, 1 del sector científico y 1 de los laboratorios acreditados: total 8 personas.

Un legado importante

Después de 19 años de realizar estas funciones, y a pesar de haber contado con un muy limitado presupuesto, el CONACYT ha logrado un importante desarrollo en el tema.

A través de su departamento de Normalización, Metrología y Control de Calidad, CONACYT mantiene presencia y participación en foros y organismos mundiales vinculados a la calidad, tales como la Organización Internacional para la Normalización (International Organization for Standardization – ISO), el Sistema Interamericano de Metrología (SIM), la Comisión Panamericana de Normas Técnicas (COPANT), la Sociedad Americana para Pruebas y Materiales (American Society for Testing and Materials – ASTM), el Codex Alimentarius, y otros.

Existe ya una amplia experiencia en la formulación, adopción, discusión y aprobación de normas y reglamentos técnicos (recomendadas y obligatorias), logrando convocar a los sectores productivo, académico, público y de protección al consumidor, para conformar los Comités Técnicos de Normalización, quienes generosamente aportan su tiempo y experticia para desarrollar estas pautas de calidad de alcance nacional e internacional.

Por ejemplo, de acuerdo a la Memoria de Labores 2010, durante ese año se trabajaron 30 normas y reglamentos técnicos en las áreas de alimentos, salud, energía, metrología, turismo, medio ambiente, construcción y evaluación de la conformidad. En ese año también se participó en las reuniones de trabajo de al menos 10 reglamentos técnicos centroamericanos.

En el mismo año 2010, CONACYT acreditó o renovó la acreditación de 212 ensayos en 10 laboratorios nacionales, cumpliendo con su obligación de evaluar la conformidad de laboratorios de ensayo, laboratorios de calibración, organismos de certificación y organismos de inspección. Existe una red de 21 laboratorios acreditados en el país, que se someten periódicamente a revisiones, auditorías y evaluaciones, realizadas por CONACYT, para garantizar el cumplimiento de normas internacionales en sus procesos.

A través del Laboratorio Nacional de Metrología Legal, el CONACYT brinda trazabilidad a los usuarios mediante la calibración de patrones y equipos de medida. Más sobre este tema en la entrada de este blog “¿Qué es la Metrología y para qué sirve?”.

La sucesión de la responsabilidad

El trabajo, experiencia y resultados alcanzados por el personal técnico y profesional del departamento de Normalización, Metrología y Control de Calidad de CONACYT es un activo en extremo valioso e importante para que el nuevo Sistema Salvadoreño para la Calidad pueda cumplir sus objetivos, que benefician ampliamente a El Salvador, al permitirnos elevar y mantener la calidad y, por tanto, la competitividad, de nuestros productos y servicios, ante el mercado mundial.

La ley recientemente aprobada reconoce y aprovecha este hecho, al preservar el bagaje y cúmulo de experiencia y excelencia que nuestros profesionales de la calidad han ganado. Esperamos que el apoyo, tanto financiero como estratégico, se incremente hacia estos nuevos organismos rectores, permitiendo así continuar mejorando el legado y la estafeta que el CONACYT entregará al Sistema Salvadoreño para la Calidad.

En 2012 se reconfigurará el universo de nombres en Internet

En la más reciente reunión de ICANN, después de 6 años de discusiones, propuestas y conatos de todo tipo, se aprobó el proceso que describe la solicitud y eventual inclusión de nuevos nombres de dominio de nivel superior, de tipo genérico, conocidos como “gTLD”, en el libro de direcciones de Internet.

La decisión no era sencilla, por las repercusiones que tendrá en el momento en que se eche a andar. Contaba con animados proponentes y defensores, pero también existían numerosas voces que alertaban acerca de potenciales riesgos y desviaciones que podrían suceder. Este proceso de consultas y expresión de opiniones, solicitadas o no, permitió a ICANN desarrollar una “Guía del Solicitante de gTLD” de más de 350 páginas.

Se espera entonces que, a partir del 12 de enero de 2012, y hasta el 12 de abril del mismo año, comenzarán a recibirse las solicitudes para la inscripción de nuevos nombres de dominio que sirvan de terminación de nuevos sitios web y cuentas de correo electrónico.

Viejas y nuevas palabras sin punto

Siendo simplistas y hasta cierto punto gráficos, estamos en la víspera de ver en Internet nuevas direcciones que terminan en palabras diferentes a las conocidas “.com”, “.org”, “.net” y todas las demás. Las terminaciones en Internet, técnicamente conocidas como dominios de nivel superior, se caracterizan, desde el punto de vista tipográfico, porque no tienen un punto a la derecha.

La apertura a estos nuevos dominios significa que es posible que veamos algo así como www.sports, www.green, www.food; que digitemos en nuestro navegador simplemente http://facebook para ingresar a la famosa red social; que le enviemos un mensaje de correo electrónico a info@adidas para indagar acerca de alguna prenda deportiva; o que sigamos las incidencias del próximo campeonato mundial en www.futbol.

Este proceso abre nuevas posibilidades de negocios y de formas de nombrar la presencia de las empresas, las instituciones o incluso las causas y grandes visiones en el mundo. ICANN ha comenzado a realizar materiales de difusión y comunicación acerca del proceso, sus requerimientos y sus potencialidades.

En la introducción de la “Guía para el Solicitante”, ICANN describe la situación actual de los nombres en Internet, que se convierte en antecedentes para este nuevo proceso: “Actualmente el espacio de nombres de gTLD consta de 22 gTLD y más de 250 ccTLD que operan conforme a diversos modelos. Cada uno de los gTLD tiene un “operador de registro” designado y, en la mayoría de los casos, un Acuerdo de registro entre el operador (o patrocinador) e ICANN. El operador de registro es responsable de la operación técnica del TLD, incluidos todos los nombres registrados en ese TDL. Los gTLD son beneficiados por más de 900 registradores, que interactúan con registrantes para realizar el registro de nombres de dominio y otros servicios relacionados. El programa de gTLD nuevos creará un medio para que posibles operadores de registros soliciten gTLD nuevos y generará nuevas opciones para los consumidores en el mercado. Cuando el programa lance su primera ronda de solicitud, ICANN espera un conjunto de solicitudes diversas para gTLD nuevos, incluidos IDN; esto generará un potencial significativo para usuarios nuevos, además de beneficios para usuarios de Internet de todo el mundo”.

El nuevo rostro de Internet

Para solicitar un nuevo gTLD será necesario cumplir con el proceso definido por ICANN, que significa pagar $185 mil como tarifa de ingreso de solicitud, además de cumplir con los requisitos técnicos, legales, económicos, de mercadeo, operativos, logísticos y demás criterios especificados como críticos y necesarios para operar un registro de dominios.

Uno de los aspectos más delicados es comprender que estos nuevos operadores de registro serán parte de la infraestructura crítica operativa de Internet, puesto que administrarán un espacio de nombres que, de tener problemas, afectaría a una parte, pequeña o significativa, de las operaciones de Internet.

Una vez asignado un nuevo gTLD, después de un proceso de aproximadamente un año para su aprobación, su operador de registro tendrá la libertad de vender subdominios de segundo nivel, fijando el precio de acuerdo al mercado, o mantenerlo en forma privada, reservando su utilización en forma exclusiva para su marca o sus productos, por ejemplo.

Adicionalmente, estos nuevos nombres incluyen los escritos en alfabetos distintos al que utilizamos en el llamado Occidente. Tendremos en la misma Internet que usamos todos, direcciones web que terminan en letras chinas, rusas, coreanas, japonesas, árabes, etc. e incluso nombres que se escriben de derecha a izquierda. Esto es conocido como IDN (Internacionalized Domain Names), o Nombres de Dominio Internacionalizados.

Todos estos cambios, que comenzaremos a ver a fines de 2012 o principios de 2013, harán que el rostro de Internet sea diferente. Al mismo tiempo, esta evolución dará paso a nuevas formas, algunas de ellas muy creativas, de comunicarnos y hacer negocios y entretenimiento en Internet. No perdamos de vista estos procesos, para asegurarnos un lugar en ese nuevo rostro.

Directores universitarios de TI de América Latina comparten experiencias en TICAL 2011

Los días 20 y 21 de junio se desarrolló en la Ciudad del Saber en Panamá la conferencia TICAL 2011 (Primera Conferencia de Directores de Tecnología de Información y Comunicaciones de Instituciones de Educación Superior de América Latina) reuniendo a más de 90 directores de Tecnología de Información de universidades de la región. La convocatoria y organización estuvo a cargo de RedCLARA, en conjunto con RedCyT, la red panameña académica de investigación y educación, y algunos otros patrocinadores.

Administrar la informática de una universidad tiene sus particularidades, y es diferente a la gestión de esta área en los otros sectores económicos. Convocar a las personas que tienen esa responsabilidad para que presenten sus innovaciones, avances y logros, con todo y sus tropiezos y decisiones menos acertadas, y que la audiencia esté formada de otros colegas que están enfrentando temas similares, o tendrán que hacerlo en el futuro próximo, probó ser una buena propuesta.

Universidades de distinto tamaño, orientación, naturaleza y organización, tanto del sector público como privado, de países como México, Guatemala, El Salvador, Costa Rica, Panamá, Perú, Ecuador, Colombia, Brasil, Chile, Argentina y Uruguay, pudieron escuchar y preguntar acerca de experiencias en esos países, así como las conferencias generales por ponentes de la Universidad de Texas en Austin (EEUU), de la red Canarie de Canadá, y de la Secretaría General Adjunta de Informática del CSIC (Consejo Superior de Investigaciones Científicas) de Barcelona (España).

Por nuestro país asistieron los directores TI de la Universidad Tecnológica, Universidad Don Bosco, Universidad Católica de El Salvador y Universidad Centroamericana José Simeón Cañas. Sus participaciones fueron facilitadas por la Red Avanzada de Investigación, Ciencia y Educación Salvadoreña (RAICES), red nacional de investigación y educación de El Salvador, y miembro de RedCLARA.

Algunos temas

Aunque las demandas contemporáneas que enfrentan los directores de TI son muy amplias, la conferencia abarcó algunos de los temas que están en el horizonte de la mayoría de los administradores de la informática universitaria.

Tanto las conferencias plenarias como las charlas en sesiones paralelas cubrieron temas como los siguientes:

Gobierno de TI

Se presentaron experiencias de la Universidad de Sao Paulo, Brasil, el Instituto Tecnológico de Monterrey, México y la Universidad Jorge Tadeo Lozano de Bogotá, Colombia. Estas instituciones de educación superior utilizan un conjunto de estándares internacionales para administrar y gestionar sus procesos: COBIT, ITL, ISO 38500, MICR, etc.

Gestión del conocimiento

La Universidad Federal de Río Grande del Sur y la Universidad Federal de Céara, ambas de Brasil, la Universidad de Antioquía, Colombia, y la Universidad de la República, de Uruguay, compartieron sendas experiencias en la administración del conocimiento en sus instituciones, por medio de la utilización de elementos de tecnología, medios de comunicación y almacenamiento, así como uso de indicadores de producción intelectual

Gestión de redes

En este tema se incluyeron las experiencias y actualidades de la Universidad de Buenos Aires, las Redes de Interconexión Universitaria (RIU), Universidad nacional de Cuyo, todas de Argentina, y la experiencia de RedCLARA. La seguridad en las redes, las redes de telefonía IP y las mallas computacionales fueron dos temas de relevancia en este apartado.

Gestión de servicios

El Sistema Interuniversitario (SIU) de Argentina, la Universidad del Valle y la Universidad Pedagógica y Tecnológica, ambas de Colombia, se encargaron de presentar las experiencias que, a través del desarrollo de sistemas de información propios y estándares internacionales como ISO 20000, ISO 27001 e ITIL v 3.0, han logrado mejorar la prestación de servicios internos.

Redes académicas

En este apartado, la RedCLARA, la Rede Nacional de Pesquisa (RNP) de Brasil y DANTE, la entidad que administra la red GEANT, en Europa, fueron las instituciones convocadas para presentar sus experiencias.

Computación de alto desempeño

El Centro de Supercomputación (CESUP) de Brasil, la Universidad de Cuyo, de Argentina, la Pontifica Universidad Católica del Perú, y la Universidad del Atlántico, de Colombia, presentaron las actualidades en las áreas de la supercomputación y la computación de alto desempeño y alta disponibilidad.

Otras experiencias exitosas

En este tema, más amplio, presentaron sus experiencias la Escuela Superior Politécnica de Chimborazo, Ecuador, la Universidad de Concepción de Chile, la Universidad Don Bosco y la Universidad Católica, ambas de El Salvador. Se habló del uso de diversas aplicaciones de software libre, gestión de calidad, redes de mallas (UDB) y sistema de voz sobre IP (UNICAES).

Red de Voz sobre IP propuesta por UNICAES para RAICES

Supercomputación, Redes Avanzadas y Cambio Climático

Las conferencias magistrales versaron sobre temas que son más generales, y de interés para los directores de TIC de las universidades en forma amplia.

Supercomputación, a cargo de Juan Sánchez, de la Universidad de Texas. En el sitio de RedCLARA se encuentra una reseña de esta charla.

Redes Avanzadas, impartida por Víctor Castelo, del CSIC de España. Un resumen también está en RedCLARA.

Cambio climático, que fue dictada por John St. Arnaud, de Canadá. Igualmente, la síntesis está en el portal de RedCLARA.

Administración y Gobierno de Tecnología de Información (TI) no son lo mismo

Gracias a la Cámara Salvadoreña de Tecnologías de Información y Comunicaciones, CaSaTIC, recientemente tuvimos la oportunidad de escuchar y aprender, dirigidos por su propio autor, acerca de la norma ISO 38500, referida al Gobierno corporativo de Tecnologías de Información.

El australiano Mark Toomey, quien ha sido Jefe del comité responsable por los estándares de Gobierno y Gestión de TI de Australia, y es el representante principal de Australia en el comité internacional de ISO/IEC 38500, estuvo en El Salvador, siendo ésta su primera visita a Centroamérica. Su objetivo, auspiciado y apoyado por la gremial salvadoreña CaSaTIC, fue la presentación y difusión de la norma ISO 38500, así como las razones de la importancia de su implantación en las empresas que buscan posicionar a la Tecnología de Información como un elemento transversal clave en su desempeño.

Las ideas contenidas de manera formal en la norma, han sido desarrolladas también por Toomey en su libro “Bailando con el elefante” (“Waltzing with the Elephant”). El autor dice que “la tecnología de información (TI) es el el Elefante en el salón, especialmente el salón de la Junta Directiva. Las organizaciones dependen de la TI para sus operaciones rutinarias y el desempeño futuro, y los problemas originados en TI tienen consecuencias serias. A pesar de esto, muchas organizaciones no ejercen una supervisión efectiva de la TI, y se arriesgan a recibir sorpresas”.

La informática es demasiado clave para estar en manos de informáticos

Puede parecer una parodia, un chiste o una frase irónica, pero coincide con el mensaje fundamental de la norma ISO 38500: las juntas directivas o las altas direcciones deben asumir el gobierno de la estrategia, la implantación y la supervisión del papel de las TI en la ejecución actual y el desempeño futuro del negocio fundamental (“core business”) de la empresa.

Los expertos en tecnología informática pueden y deben administrar el día a día, así como asesorar a sus directivos acerca de las potencialidades y el costo beneficio de las tecnologías emergentes, pero dadas las condiciones actuales de competencia y diferenciación en el mundo, los miembros de la dirección superior deben ejercer el gobierno TI.

La analogía es fácil de comprender: en las sesiones de casi cualquier junta directiva, un punto que no falta es la revisión de los estados financieros, balance, estado de resultados, y presupuesto, entre otros, pues es la alta dirección la que considera una de sus funciones la supervisión del comportamiento de las finanzas en la empresa. Esto no significa que el gerente financiero no puede actuar por su propia iniciativa, o que el equipo de personas que registra, analiza y reporta los movimientos contables debe esperar instrucciones puntuales de la directiva.

Por el contrario, en muchas situaciones, basados en que “de tecnología no entendemos mucho”, los altos directivos delegan en exceso y no se molestan en ejercer su parte de la dirección estratégica en TI en la empresa. Por otro lado, la buena cantidad de normas y estándares que existen en el área de la Tecnología de Información (ITIL, CMMI, CoBIT, etc.) no se dirigen al factor clave: el comportamiento humano. Esos son los argumentos y la base fundamental para la creación e impulso a esta norma.

En esta figura, desarrollada por Mark Toomey, se resumen las funciones del gobierno corporativo (dirigir, evaluar y supervisar), y su relación con las tareas y la responsabilidad de la administración de TI: planear, construir y operar. Aparece evidente que no es lo mismo gobernar la función TI en la empresa, responsabilidad ineludible de la alta dirección y la junta directiva, que administrar la TI, a cargo de los gerentes de informática y sus equipos de apoyo.

Los siete mensajes clave y los seis principios

Afortunadamente, la norma también entra en mayor detalle, con la finalidad de apoyar la clarificación de las acciones y actitudes que se pueden desarrollar para lograr este balance entre un buen gobierno TI y una buena administración TI.

A partir de estas reflexiones y de la experiencia en numerosas empresas, se pueden generar siete mensajes clave:

  1. Los directores deben gobernar el uso de TI
  2. Gobierno y administración son conceptos separados
  3. La norma es aplicable a cualquier organización
  4. Las personas que más deben utilizar las normas son los gerentes
  5. El buen gobierno de TI es un atributo deseable para todos los actores interesados
  6. El comportamiento humano es clave
  7. La implementación es responsabilidad de cada organización

La norma, en vez de indicar explícitamente cómo deben realizarse las actividades dentro de la empresa que logren desarrollar un buen gobierno TI, y que garanticen el cumplimiento de los siete mensajes clave, establece seis principios básicos, que definen un comportamiento preferido para orientar el proceso de toma de decisiones. Así mismo, definen lo que debe suceder, pero no cómo, cuándo o realizado por quién. Eso es lo que cada empresa debe concretar.

Los seis principios en los que se basa la norma ISO 38500 son:

Responsabilidad

Los individuos y los grupos dentro de la organización entienden y aceptan sus responsabilidades en cuanto a la oferta y demanda de uso de TI. Los que tienen la responsabilidad de acciones concretas también tienen la autoridad para realizar esas acciones.

Estrategia

La estrategia de negocios de la empresa toma en consideración las capacidades actuales y futuras de la TI; los planes estratégicos de TI satisfacen las necesidades presentes y las que van surgiendo de la estrategia de negocios de la organización.

Adquisición

Las adquisiciones para TI son hechas por razones válidas, basadas en un análisis apropiado y dinámico, con procesos de toma de decisiones claros y transparentes. Hay un equilibrio apropiado entre beneficios, oportunidades, costos y riesgos, tanto en el corto como en el largo plazo.

Desempeño

La TI responde al propósito de apoyar a la organización, proveyendo los servicios, los niveles del servicio y la calidad de los servicios requeridos para cumplir los requerimientos presentes y futuros de la organización.

Cumplimiento

La TI cumple con todas las normas, reglamentos y legislaciones aplicables. Las políticas y las prácticas están claramente definidas, implementadas y supervisadas.

Comportamiento humano

Las políticas, prácticas y decisiones en torno a la TI muestran respeto por el comportamiento humano, incluyendo todas las necesidades presentes y previsibles de las personas en el proceso.