Archivo de la categoría: Desde el aula

La banda ancha

Muchos términos y nombres que tienen su origen en las disciplinas tecnológicas invaden y toman posesión de un espacio en el léxico común de una cantidad significativa de hispano parlantes, una vez el concepto que definen alcanza igualmente un buen nivel de difusión.

De la tecnología informática, nuestro idioma ha adoptado un gran número de palabras y frases: algunas identifican bienes tangibles (disco duro, tarjeta de red); otras definen conceptos (copias de respaldo, base de datos); se aceptan marcas y nombres comerciales como sustantivos (ipod, office); se adoptan denominaciones de tendencias y paradigmas (web 2.0, virtual); ocurren nuevas acepciones a palabras conocidas (aplicaciones informáticas, redes sociales); se acogen términos en otro idioma (switch, driver), y debemos lidiar con una colección de siglas (USB, JPG). Son varias las formas de transculturización hacia el lenguaje castellano en torno a la tecnología informática.

Si bien hay una correlación intuitiva entre la facilidad para aceptar y utilizar esta ola de nuevos términos y la edad de los que la utilizan, siendo mayor entre los más jóvenes, también es cierto que no resultan totalmente ajenos a una población de mayor edad, en la medida que los dispositivos e ideas que son definidos por estas palabras también forman parte del diario quehacer de una población cada vez más abundante, independientemente de la edad.

Acompañando a esa ola de nuevas incorporaciones a nuestra forma de comunicarnos, aceptada o no por la Real Academia de la Lengua, existe aún una relativa imprecisión de lo que significan esos conceptos. Esto es totalmente comprensible. Por un lado los productos, servicios y conceptos que esas palabras representan son, en sí mismo, muy novedosos, por lo que no son muchas las personas que los conocen y dominan con completa propiedad; y por otra parte, coincide que dichos conceptos también contienen un gran componente de innovación y constante cambio.

La incursión en documentos formales

Este tópico cobra interés cuando ejemplos de estos términos son utilizados en documentos formales, entre los que podemos enumerar las tesis de grado, los informes de investigaciones, los libros que publican las editoriales de mayor tradición, los reportajes periodísticos, y las declaraciones políticas, entre otros.

Entonces, establecer un nivel de cobertura y alcance por medio de redes inalámbricas, o hablar de difundir cantidades significativas de netbooks entre la población estudiantil, o establecer la utilización de banda ancha como un distintivo importante en el potencial desarrollo de un país, vuelve de gran interés la concertación acerca de lo que los conceptos utilizados comprenden.

Un caso ejemplar es el de la “banda ancha”. Incluso si partimos de la semántica, entendemos que, sabiendo que la “banda” es la analogía a la velocidad de la conexión a Internet, esperaríamos que si es “ancha” sea una alta velocidad y, por contraste, debe existir una “banda estrecha”. Pero, ¿cuánto es ancho y cuánto es estrecho?

Varias versiones

En Wikipedia podemos encontrar lo siguiente: La recomendación I.113 de ITU-T, el sector de estandarización de la Unión Internacional de Telecomunicaciones, encuadra dentro de banda ancha a las técnicas capaces de transmitir más rápido que un acceso primario de RDSI, sea éste a 2 ó 6 Mbps. Sin embargo las velocidades de 512 kbps o incluso 1024 kbps se comercializan como de «banda ancha».

En el sitio de la Comisión Federal de Comunicaciones (FCC, por sus siglas en inglés) se halla la siguiente definición: “El término banda ancha normalmente se refiere al acceso a Internet de alta velocidad. La Comisión Federal de Comunicaciones define al servicio de banda ancha como la transmisión de datos a una velocidad mayor de 200 kilobits por segundo (Kbps) o 200,000 bits por segundo, en por lo menos una dirección: transmisión de bajada (del Internet a la computadora del usuario) o de subida (de la computadora del usuario al Internet)”.

También en Wikipedia aparece una definición que no se basa en números: Se conoce como banda ancha en telecomunicaciones a la transmisión de datos en la cual se envían simultáneamente varias piezas de información, con el objeto de incrementar la velocidad de transmisión efectiva. En ingeniería de redes este término se utiliza también para los métodos en donde dos o más señales comparten un medio de transmisión.

Incluso hay sitios en Internet que permiten medir el ancho de banda con el que cuenta nuestra conexión, como por ejemplo este medidor en un servidor en Chile, y que dan resultados como el siguiente, estableciendo el nivel de la banda ancha.

La banda ancha universal

Diversos estudios académicos, propuestas comerciales y compromisos políticos hacen alusión a la banda ancha como una característica de la verdadera Sociedad del Conocimiento. No están lejos de la realidad. Con el constante incremento de demanda de más y mejores servicios, tanto de trabajo y aprendizaje, como entretenimiento y comercio, en la red, es fácilmente comprensible que la necesidad de contar con servicios y provisión de banda ancha de buena calidad y amplia cobertura en países como el nuestro, sea una prioridad de gobiernos, universidades y empresas en general.

Humor en banda ancha
Humor en banda ancha

—————————————————————————————————————————————

La espiral necesidad-satisfacción-necesidad

La interrelación y trabajo conjunto que debe ocurrir entre dos disciplinas académicas, científicas o tecnológicas diferentes conlleva un buen número de habilidades de comunicación de parte de todos los involucrados, precisamente para lograr transmitir mensajes que cruzan dos o más fronteras del conocimiento y marcos conceptuales.

En el caso concreto de la informática, dado que se trata de una disciplina eminentemente de servicio a otras profesiones y oficios, la habilidad para comunicarse de una forma eficiente y completa es de suma importancia. El lenguaje técnico, tanto verbal como escrito y gráfico, que se usa dentro de la carrera de la computación es necesario y muy útil, pues es capaz de contener y transmitir mucha información importante para que los análisis, diseños y codificación de los programas realicen lo que deben ejecutar, según han sido concebidos.

Pero ese lenguaje propio de la computación, al igual que en el caso de otras disciplinas, es tan valioso para los profesionales de esta disciplina, como inútil y molesto para la mayoría de los demás profesionales.

La tarea de transmitir una idea, una concepción, o la descripción de necesidades para que una persona que intentará diseñar un sistema para solventarlas, no es sencilla para ninguna de las partes. Las preconcepciones, desconocimientos y experiencias previas que tenemos cada uno de nosotros sobre cada concepto intervienen en todas la comunicaciones que realizamos, y esto establece un límite importante en el mensaje que transmitimos y recibimos.

La conocida y antigua metáfora de la construcción del columpio ilustra en forma humorística esta realidad tan importante.

Por si no se alcanza a ver, las leyendas en cada figura se leen así, de izquierda a derecha, de arriba abajo:

  1. La solicitud del usuario
  2. Lo que entendió el líder del proyecto
  3. El diseño del analista de sistemas
  4. El enfoque del programador
  5. La recomendación del consultor externo
  6. La documentación del proyecto
  7. La implantación en producción
  8. El presupuesto del proyecto
  9. El soporte operativo
  10. Lo que el usuario realmente necesitaba

Las figuras 1 a 5, así como la 10, reflejan fases del proceso de desarrollo de un sistema de información. Las figuras 6 a 9 tienen que ver con otros aspectos del entorno del mismo tipo de proyectos. Cada una de estas figuras daría mucho material para reflexionar, discutir y, con este enfoque, también bromear.

Las barreras

De forma igualmente alegórica, se pueden listar frases cortas que intentan mostrar parte de los prejuicios y concepciones, acertadas o no, que tanto los usuarios (entendiendo como tales a las personas que utilizan los sistemas de información, independientemente de su formación, experiencia, edad, y otras características) como los desarrolladores (abarcando de este modo a todos los que intervienen en el proceso de desarrollo y construcción de un sistema de información.

Barreras de usuarios

Las computadoras reducen la creatividad

“La computadora tuvo la culpa”

Las computadoras desplazan empleados

Son sólo para “iniciados”

Pueden hacer cualquier cosa

Son sinónimo de programación

“Alguien más lo puede hacer por mí”

“Si tengo una computadora voy a trabajar todo el tiempo”

“Pretenden hacernos ver como tontos”

“Estoy demasiado viejo para aprender”

Es muy difícil de aprender

“Podría cometer errores”

Los métodos antiguos funcionan bien

Los técnicos no pueden expresarse sin usar un lenguaje confuso y rimbombante

“Mi área de saber no es susceptible de llevarse a computadora”

Problemas de “mala sangre” entre las personas

Barreras de desarrolladores

Un buen trabajo no se aprecia

Los usuarios no saben lo que quieren y no pueden definir sus necesidades

Los usuarios no le dedican el tiempo necesario al desarrollo del sistema

Los usuarios cambian las prioridades de los proyectos de desarrollo

“Mi trabajo es desarrollar una aplicación (mecanizar lo que se hacía manualmente) y nada más”

“Yo debería estar trabajando como jefe”

Los usuarios nunca están satisfechos: siempre quieren más

La espiral necesidad-satisfacción-necesidad

Precisamente esta última idea, la de que los usuarios nunca parecen satisfechos, es la que da origen a una sencilla concepción gráfica para explicarlo: la espiral necesidad-satisfacción-necesidad.

Una amplia porción del mercado de la industria de tecnología de información y comunicaciones (TIC) está formado por el desarrollo y/o adecuación de aplicaciones informáticas para atender y resolver los procesos y problemas que se dan en todas las empresas e instituciones del mundo.

El reto principal ha sido, desde siempre, que el diseñador y el programador comprendan el fenómeno que se pretende mecanizar y automatizar con ayuda de las computadoras. Existen un buen número de metodologías para intentar acercar a los profesionales del diseño y la programación a los demás procesos. Estas metodologías y enfoques han evolucionado con los años, lo mismo que las tecnologías de desarrollo, lo que permite velocidades mayores entre la definición de requerimientos y la presentación de prototipos.

En este proceso, es esperado que, después de desarrollar una primer versión de una aplicación, que haya observaciones, cambios y ajustes. Aun cuando la aplicación se entregue y se dé por concluida, siempre habrá una nueva necesidad que envía de nuevo a los desarrolladores a su estación de trabajo. Esta es la espiral necesidad-satisfacción-necesidad en el desarrollo de sistemas informáticos.

Lo que es más importante, sin embargo, es que lejos de considerar esta constante interacción como una molestia o una señal de insatisfacción por parte del usuario, debe ser visto como el involucramiento y aceptación del sistema por sus destinatarios, al punto de desear mejorarlo todo el tiempo, reconociendo que la aplicación provechosa de las TIC en cualquier negocio puede marcar la diferencia.

Algunas propuestas

Es importante establecer y acordar que los objetivos de unos y otros, usuarios y desarrolladores, son los mismos, pues se encuentran definidos en relación a los grandes objetivos de la empresa o institución donde laboran. Siendo ése el caso, es vital considerar lo siguiente:

Para asegurarse de considerar al usuario en el desarrollo

El desarrollo es para satisfacer los objetivos del usuario, no de los analistas

El grupo de sistemas no debe asumir la responsabilidad del desarrollo individualmente

Debe nombrarse un administrador del proyecto por parte del grupo usuario (“campeón”)

El grupo usuario debe entender y aceptar el compromiso y responsabilidad del desarrollo, proveyendo tiempo para las reuniones y evaluaciones de seguimiento

La participación del grupo usuario debe ser activa, no pasiva

Los planes en el tiempo deben ser realistas, considerando los recursos y la dedicación de los mismos

El grupo de sistemas debe tomar en consideración los comentarios y opiniones de todos los usuarios, llevando a discusión general aquellos que sean conflictos potenciales

La(s) gerencia(s) involucradas deben mantenerse informadas de los avances y problemas relevantes del desarrollo

Los nuevos requerimientos deben

Responder a los objetivos generales de la organización y el sistema

No entrar en conflicto con requerimientos de otros usuarios

Ser rentables, en términos de costo-beneficio

Reflejar un entendimiento claro de las potencialidades del sistema

Ser justificados desde la perspectiva del usuario

Los factores humanos que deben mantenerse presentes

1. Mantener la sencillez

2. Ser consistente

3. Diseñar y mostrar terminación de tareas

4. Apoyar la sensación de control del usuario

5. Proveer atajos y formas alternas de hacer las cosas

6. Manejar errores adecuadamente

7. Permitir la reversión de acciones fácilmente

8. Usar efectivamente la sorpresa o diferenciación

9. Evitar confundir al usuario

Computación en la nube

Si un amigo nos dice que “andamos en la nube”, nuestra primera interpretación posiblemente será que nos está llamando “distraído” o “descuidado”. ¿Puede entonces un computador “estar o andar en la nube”?

La denominación puede sonar, cuando menos, extraña. Si se pluraliza, “computación en las nubes” puede transmitir las ideas de una forma distraída o descuidada de trabajo en la informática (“Fulano siempre anda en las nubes”), o de algo de precio elevado (“el costo de ese servicio está en las nubes”).

Pero así, en singular, y proveniente de la traducción de “Cloud Computing”, refleja una de las tendencias contemporáneas en la forma que las organizaciones, empresas e instituciones, de todo tamaño, tienen para realizar tareas computacionales, con sus ventajas y posibles inconvenientes.

El origen del nombre reside en los diagramas, usados desde hace muchos años, en los que la red de redes, Internet, es representada como una nube a la que se accede desde los computadores y servidores localizados en cualquier parte del mundo. Una nube resultó ser una imagen idónea para representar es conjunto millonario de aparatos y dispositivos, así como contenidos, datos y aplicaciones que están “allá afuera”, “en la nube”.

Sin embargo, es importante aclarar que el concepto no es nuevo. En la década de los 80, por ejemplo, Scott McNealy, Director ejecutivo de Sun Microsystems por muchos años, había establecido que “la red es la computadora”. El uso de terminales sin mucho poder computacional conectándose a un “cerebro” central fue por mucho tiempo el paradigma funcional de la computación empresarial, y esta vuelta retro con el nombre renovado “en la nube” puede verse como una reencarnación de aquellos propósitos.

¿Qué es la computación en la nube?

El concepto está basado en tener acceso a todos nuestros datos y programas desde donde sea a través de Internet (que es la nube). Es decir, aprovechar el almacenamiento en línea o usar un centro de procesamiento remoto para ejecutar las operaciones de una empresa. (Google Docs, Google Apps, Amazon Web Services, etc.)

Otra forma de verlo es tener una computadora portátil con un hardware y software mínimo de arranque, que simplemente aprovecha al máximo el ancho de banda de Internet para procesar datos que se encuentran guardados en algún lugar remoto, pero que no permite notar la diferencia de tenerlos en nuestra máquina o en algún lugar del otro lado del mundo.

A nivel personal, se puede pensar en los almacenamientos y procesamientos de documentos, presentaciones y hojas electrónicas que se hacen en la red, a veces sin copias en computadores locales, y que permiten agregar valor, como el trabajo colaborativo a distancia, la descarga de archivos propios estando en ubicaciones remotas, etc. Este blog, y la mayoría de blogs, son un ejemplo de ello.

Más ampliamente, en una situación ideal, pero no lejana de la realidad, en la computación en la nube se habla de enormes grupos de servidores y un ancho de banda de red muy amplio y un acceso bastante rápido.

Esta idea abre la puerta a otras posibilidades: alquilar un computador virtual, a la medida, con una velocidad de procesamiento para nuestras necesidades, capacidad de memoria y disco según nuestros requerimientos, y con el sistema operativo que sea apropiado a nuestras operaciones. Una vez nos han configurado este computador para nuestro uso, “en la nube”, podemos comenzar a poblarlo con nuestros datos y aplicaciones.

Otra posibilidad interesante es el alquiler del servicio de procesamiento, es decir, el ya ampliamente discutido paradigma del “software como servicio”. En este caso, el proveedor ofrece, además de la plataforma, el equipo, procesador, memoria y almacenamiento, los programas informáticos adecuados a las necesidades del cliente.

Ventajas y desventajas

Hay un continuo debate en torno al tema. Los defensores arguyen que los costos para las empresas que contratan estos servicios “en la nube” se reducen, y se incrementa la flexibilidad y velocidad de respuesta ante nuevos requerimientos, además de que las aplicaciones se encuentran disponibles como la red: 7 x 24 y desde todo el mundo.

En su contra, hay que decir que aun existen temores acerca de la seguridad y privacidad de los datos contenidos. Acuerdos legales y copias de respaldo en las propias manos pueden ayudar a mitigar estas posibles desventajas.

Entonces, los pro y contra se pueden resumir así:

A favor

Ahorro. Libera de gastos tanto en infraestructura como en recursos humanos. No necesitaremos personal que gestione el sistema porque otros lo administran por nosotros.

Escalabilidad. Se trata de un sistema extremadamente flexible, las necesidades pueden corresponderse con nuevos recursos casi automáticamente por el proveedor.

Ubicuidad. Al estar en la nube y no en el escritorio podremos acceder a los datos estemos en el sitio en el que estemos.

En contra

Privacidad de los datos. El tráfico de los datos estará continuamente en manos de otros. Por eso es necesario ser muy escrupuloso con la elección del proveedor, debe ser una empresa de total confianza y con una gran solvencia pública.

Dependencia de una empresa. Por eso vuelve a ser necesario elegir con mucho cuidado. Las soluciones de las grandes empresas sector suelen ser una solución segura.

Como todas las tecnologías lo mejor que tiene la Computación en la Nube es que es una posibilidad más para elegir, pero cada cual tiene que hacer balance y decidir cual es la mejor elección para su negocio.

La computación como “commodity”

Si abstraemos un poco la reflexión a partir de esta tendencia “en la nube”, podemos pensar que los servicios de alquiler de procesamiento de datos, de uso de software, almacenamiento, respaldo y custodia de información se están volviendo cada vez una mercadería de fácil intercambio, un “commodity”.

La definición de “commodity” es: Término anglosajón que se aplica a todo producto vendido a granel, a menudo se vende en los mercados financieros. Los más comunes son el oro, el café, el petróleo, etc. y las materias primas que se transan en los mercados mundiales.

Por extensión, anticipamos que esta forma de negocio puede ser destacada en el futuro, con su respectiva porción del mercado latinoamericano, tanto del lado de los proveedores como de los consumidores de los servicios ofrecidos “en la nube”.

Así que la próxima vez que le pregunten si usted anda “en la nube” no lo tome a mal. Quizá sea un buen augurio a su próximo negocio exitoso.

IPv6: Más direcciones que arenas en la playa

Tal vez haya escuchado el acrónimo IPv6, o quizá le haya pasado desapercibido, pero se trata de uno de los cambios más importantes que se está desarrollando en Internet, en forma casi silenciosa. Se trata, dicho brevemente, de un cambio en el protocolo de comunicaciones en el que se empaquetan los mensajes que circulan en Internet, una vez segmentados, para que viajen de un punto a otro, y se vuelvan a armar en el extremo de llegada.

Un protocolo es un conjunto de reglas y definiciones que los fabricantes de los aparatos y dispositivos que se usan para un propósito específico deben seguir en el momento de diseñar y manufacturar sus productos. En este caso, el protocolo IP (Protocolo Internet) debe ser acatado por los productores de equipos para comunicarse en Internet.

Actualmente, la mayor parte de comunicaciones se realizan utilizando la versión 4 del protocolo IP, pero se están realizando esfuerzos intensos para dar a conocer los mecanismos de transición de ésta a la versión 6, pues se considera importante lograr el cambio total hacia este nuevo conjunto de reglas y acuerdos.

¿Qué hacen las direcciones IP?

Una de las características más reconocidas y fáciles de comprender de las direcciones IP, independientemente de la versión, es que cada dispositivo que está conectado a Internet debe tener un identificador único, llamado dirección IP, para que los mensajes y paquetes dirigidos a ese dispositivo puedan llegar en forma correcta y completa a su destino.

Las direcciones IPv4 usan 32 bits (dígitos binarios) para construir los identificadores únicos, separados, para efectos de comprensión del ser humano, en 4 bloques de 8 bits, cada uno de los cuales puede tener un valor que va desde 0 hasta 255. Esto completa 256 valores, que es la cantidad de combinaciones binarias que se producen con cuatro dígitos, obtenida matemáticamente de elevar 2 a la cuarta potencia.

Haciendo un poco de matemática binaria, comprendemos que con 32 bits disponibles, la cantidad de direcciones únicas en Internet son un poco más de 4 mil millones. Si bien es un número bastante grande, ya hace varios años los ingenieros de Internet comenzaron a prever que en algún momento esa cantidad de direcciones y de posibles dispositivos conectados simultáneamente a Internet podría quedarse corta, atendiendo a las tendencias de crecimiento de la red de redes.

Después de mucha discusión técnica en varias partes del mundo, e incluso de una versión intermedia del protocolo (IPv5) que fue desechada, se arribó al consenso sobre el nuevo diseño, y gracias a la versión 6 del protocolo IP, que establece direcciones de longitud de 128 bits, será posible contar con “3.4 multiplicado por 10 elevado a la 38 potencia” direcciones.

Esta es una cantidad de direcciones IP accesibles para comunicar dispositivos en Internet tan grande, que algunos han llegado a comparar dicha cantidad con la de arenas en la playa, y de estrellas en el universo. Es decir, se trata de magnitudes que resultan hasta difíciles de imaginar.

Un poco de tecnología

Si bien este apartado contiene elementos quizá excesivamente tecnológicos, será breve y tal vez abone a la comprensión adicional del tema de la necesidad de migración de una versión a la otra en todas nuestras instalaciones de red conectadas a Internet.

Además de los cambios en la cantidad de direcciones, la nueva versión también comprende modificaciones en la estructura de los paquetes de datos que viajan en el ciberespacio. Baste decir esto muy brevemente, de forma que si alguien se interese, pueda estudiar un poco más sobre el futuro del Protocolo Internet.

Los paquetes de la versión IPv4 tienen 192 bits, (10 campos, 2 direcciones y opciones).

Los paquetes de datos en la versión IPv6 tienen 320 bits (6 campos y 2 direcciones).

¿Por qué se desea realizar el cambio a IPv6?

El esfuerzo de esta migración es masivo e intenso, supone capacidad técnica y una clara comprensión de los aspectos involucrados, así como de equipo, hardware y software, diseñado expresamente para poder conocer y dar paso a los paquetes con esta nueva versión.

A pesar de ello, es un proceso que debe realizarse en la mayoría de instalaciones, y en el menor plazo posible. Un solo motivo existe detrás de estos esfuerzos: tener más direcciones IP disponibles en la red mundial de Internet.

La mayor cantidad de direcciones son necesarias para atender la creciente demanda de las mismas, a nivel mundial, para:

* Miles de millones de nuevos dispositivos: teléfonos celulares, PDAs, dispositivos de consumo, automóviles, aparatos de medición, etc.

* Miles de millones de nuevos usuarios: China, India, países con economías emergentes, etc.

* Tecnologías de acceso “always-on” (siempre necesitan estar en línea)

* Nuevos tipos de aplicaciones y nuevos mecanismos de acceso que requieren direcciones únicas, sin admitir mecanismos de traducción de direcciones, como los conocidos NAT (Network Address Translations).

Adicionalmente, la nueva versión del protocolo IPv6 tiene como ventajas:

* Capacidades ampliadas de direccionamiento

* Autoconfiguración y reconfiguración sin servidor (“plug and play”)

* Mecanismos de movilidad más eficientes y robustos

* Incorporación de encriptado y autenticación en la capa IP

* Formato de la cabecera simplificado e identificación de flujos

* Soporte mejorado de opciones y extensiones

* Más facilidad para configurar la seguridad de acceso

Para conocer más sobre IPv6

El 14 de octubre próximo, en la Universidad Centroamericana José Simeón Cañas, a partir de las 8 de la mañana, y durante todo el día, tendremos la oportunidad de conocer más acerca del nuevo protocolo IPv6, gracias a un seminario taller que será impartido por Jordi Palet Martínez, un verdadero profeta del IPv6 a nivel mundial.

Jordi Palet Martínez
Jordi Palet Martínez

La entrada es gratuita, y solamente debe registrarse enviando su nombre, empresa y dirección electrónica a daguilar@bib.uca.edu.sv.

Nombres de dominio y propiedad intelectual

Los avances tecnológicos no se limitan a nuevos productos y servicios. Con frecuencia tocan, tarde o temprano, otras disciplinas del conocimiento y la experiencia, propiciando cambios en las mismas, estemos o no conscientes de todo este proceso.

Una de las disciplinas del saber que debe estar muy atenta a las repercusiones de los cambios tecnológicos es la del Derecho. Cada vez es más importante que los abogados y los estudiantes de las ciencias jurídicas se enteren, discutan y generen propuestas de reglamentos, leyes y procedimientos que tengan en consideración el cambio cultural que nos atañe a todos, y que ha sido motivado por la introducción y difusión mundial del aprovechamiento de las telecomunicaciones, las computadoras y la red Internet.

Por ejemplo, un tema que ha sido estudiado, definido y trabajado por años por grandes grupos de abogados, a nivel mundial, es el de la propiedad intelectual. Su registro y protección, y su relación con el sector productivo, las regalías, las franquicias, las patentes, la investigación e innovación, el intercambio de información, las licencias, la vigencia de los permisos, la disputa, el arbitraje, la mediación y todos los procesos relacionados, han sido constantemente revisados, de forma que han ido evolucionando, aunque en forma rezagada, respecto a las tecnologías.

Recientemente se llevó a cabo en el país un seminario sobre este tema, organizado por la Cámara Americana de Comercio, AmCham, denominado “Propiedad intelectual: innovación para el desarrollo de El Salvador”, en el que se incluyeron ya algunos temas referidos a estos traslapes entre las disciplinas tecnológicas y las jurídicas.

Nombres de dominio y marcas

Como se explicó en dicho seminario, el origen de los nombres de dominio en Internet se remonta a la necesidad de que los seres humanos utilicemos nombres que sean mnemónicos, normalmente constituidos por letras, tal como “www.miempresa.com.sv“, en vez de una dirección numérica, como 192.134.12.35, para localizar un computador con la información que nos interesa.

Las marcas, por su parte, tuvieron su origen en un aspecto estrictamente comercial. “Una marca es todo signo o medio que sirve para individualizar productos y servicios en el mercado. Es uno de los tres tradicionales signos distintivos del empresario; los otros son el nombre comercial (que sirve para individualizar a un empresario en ejercicio de su actividad) y el rótulo del establecimiento (que individualiza el establecimiento mercantil en sí)”.

Es decir, los nombres de dominio son las direcciones de Internet expresadas simplemente para facilidad del usuario. Si bien fueron diseñados con el fin de permitir a los usuarios localizar computadores de manera fácil, los nombres de dominio han adquirido mayor importancia en tanto que indicadores comerciales y, como tales, han provocado conflictos con el sistema de identificadores comerciales que existía antes de la llegada de Internet y que está protegido por derechos de propiedad intelectual.

En algunos países, se siguen las recomendaciones y propuestas de la Organización Mundial de la Propiedad Intelectual, OMPI, respecto a la forma de abordar y tratar las posibles afrentas a la protección de este tipo de propiedad. Las definiciones de la OMPI ya contemplan, desde hace años, el tema puntual de los nombres de dominio.

Una exigencia en el Tratado de Libre Comercio

Los tratados internacionales que cualquier país suscribe, ya sea en forma bilateral o en formato de adhesión nacional a un texto, se convierten en ley nacional. El Tratado de Libre Comercio con los Estados Unidos, del que nuestro país fue el primero en la región centroamericana en firmar, hace referencia explícita a los nombres de dominio, vinculándolos con la protección a la propiedad intelectual. En particular, dentro del capítulo 15, que se refiere a Propiedad Intelectual, se incluyen los siguientes párrafos:

Artículo 15.4: Nombres de Dominio en Internet

1. A fin de abordar la piratería cibernética de marcas, cada Parte exigirá que la administración de su dominio de nivel superior de código de país (“country-code top-level domain” o “ccTLD”) disponga de procedimientos apropiados para la resolución de controversias, basado en los principios establecidos en las Políticas Uniformes de Resolución de Controversias en materia de Nombres de Dominio.

2. Cada Parte exigirá que la administración de su dominio de nivel superior proporcione acceso público en línea a una base de datos confiable y precisa con información de contacto para los registrantes de nombres de dominio. Al determinar la información de contacto apropiada, la administración del ccTLD de una Parte podrá dar debida consideración a las leyes de la Parte que protegen la privacidad de sus nacionales.

Buscando proteger los registros de nombre de dominio, y dando cumplimiento a estos dos requerimientos, SVNet, la entidad que registra los nombres de dominio terminados en SV, mantiene en su sitio web el texto completo de su Política Uniforme para Resolución de Controversias, un Reglamento para ejecutar esta política, así como una consulta a su base de datos con los nombres y referencia de las personas que sirven como contacto administrativo para cada nombre de dominio.

El proceso de resolución de controversias

Para que de inicio un proceso de esta naturaleza, se debe cumplir con 3 criterios, uniformemente aceptados en muchos países:

i) El nombre de dominio registrado por el titular es idéntico o similar, hasta el punto de crear confusión, con respecto a una marca de productos o de servicios sobre la que el demandante tiene derechos;

ii) El titular del nombre de dominio no tiene derechos o intereses legítimos respecto del nombre de dominio en cuestión;

iii) El nombre de dominio ha sido registrado y se utiliza de mala fe.

Cada uno de estos criterios debe ser demostrado y probado por el demandante, y así dar inicio a un proceso que, si no es posible resolver por la vía amistosa, habrá de pasar por la negociación, la mediación y el arbitraje, si fuera necesario.

En casos más dramáticos, y sobre todo en países de mayor desarrollo tecnológico, productivo y comercial, la problemática de registrar un nombre de dominio sin contar con los derechos para hacerlo, conocida como “ciberocupación” o “cybersquatting”, ha dado pauta para demandas y transacciones financieras millonarias, y con cierta relevancia en los medios de comunicación.

En nuestro país, SVNet ha establecido una primera relación con el Centro de Mediación y Arbitraje de la Cámara de Comercio Americana (AMCHAM) (www.amchamsal.com), para que, en el caso de que surja la necesidad por parte de una entidad, persona o empresa, que se sienta afectado, exista una posibilidad de acudir a un ente nacional para dirimir el caso.

A partir del establecimiento de estos mecanismos de consulta y de proceso, se busca reducir la comisión de infracciones a la protección de la propiedad intelectual en El Salvador, en el caso particular del registro de los nombres de dominio SV.

¿Cuál es el papel de los Objetos de Aprendizaje en la educación?

 

Ya hemos reflexionado en este espacio acerca de lo relativamente joven que es todo lo relacionado con las tecnologías de información y comunicaciones, además del continuo cambio en el que se mantienen estas tecnologías, herramientas, paradigmas, productos y servicios.

Uno de estos novedosos temas, al menos para nuestro país, lo constituye el concepto, desarrollo, aplicación y catalogación de los Objetos de Aprendizaje (OA). Podemos pensar que es uno de los varios puntos de traslape entre la disciplina de la computación y, en este caso, la ciencia de la Educación. Se trata de creaciones que utilizan las tecnologías informáticas, pero tiene el propósito de incidir en el proceso de enseñanza aprendizaje, procurando mejorar dicho proceso.

Recientemente se ha desarrollado un trabajo de graduación en la Universidad Centroamericana José Simeón Cañas (UCA), titulado “Objetos de Aprendizaje, su estado actual en El Salvador y desarrollo de búsquedas en múltiples servidores del sistema AGORA”, que investiga este tema, y realiza un aporte específico dentro de un proyecto que, a nivel internacional, se está desarrollando en la Universidad de Castilla de La Mancha, España, y la Universidad Autónoma de Yucatán, México.

¿Qué son los Objetos de Aprendizaje?

De la tesis citada, extraemos los siguientes conceptos: Los Objetos de Aprendizaje son recursos digitales utilizados como ayuda para el aprendizaje. Estos objetos van desde archivos de texto y presentaciones hasta programas interactivos para la educación.

Los Objetos de Aprendizaje (OA) son considerados recursos pedagógicos y unidades de información autocontenidas, que tienen el objetivo de ayudar al aprendizaje de un determinado tema. Los Objetos de Aprendizaje están compuestos de objetos de información desde los cuáles se informa para tener una base teórica. Además pueden comprender experiencias prácticas que permitan reforzar el aprendizaje y evaluación de los aprendizajes que permitan medir el nivel de aprendizaje alcanzado.

Los Objetos de Aprendizaje están basados enel paradigma de la Programación Orientada a Objetos, haciendo uso de sus elementos y propiedades, para ser reutilizables e interoperables. Estos están definidos en base a estándares como XML (Extensible Markup Lenguaje, Lenguaje de Marcas Ampliable), Metadatos y Empaquetamiento. De esta manera el usuario puede identificarlos, localizarlos y utilizarlos. Además de contar con estándares, también poseen características didácticas y técnicas. Las características didácticas son las que impulsan la apropiación de la tecnología educativa, y las técnicas permitenincrementar la expansión y calidad de los sistemas digitales de enseñanza y aprendizaje (e-learning).

Definición: Los Objetos de Aprendizaje son unidades mínimas, digitales o no, que pueden ser utilizadas, re-utilizadas, actualizadas, referenciadas o clasificadas mediante sistemas de metadatos en e-learning o en CBT (capacitación basada en tecnología). Estas unidades mínimas se combinan y deben funcionar dentro de un LCMS (Learning Content Management System ó Sistema de Gestión del Aprendizaje).

Ventajas de los Objetos de Aprendizaje

Uno de los conceptos clave en relación a los Objetos de Aprendizaje es la metadata que los acompaña. Siendo los metadatos, información sobre la información, en esta parte de los OA es dónde se les describe y se incluye información adicional sobre su alcance, sus objetivos pedagógicos, su limitaciones, su entorno, e incluso algunos rasgos de la evaluación que acerca del mismo OA pueden haber realizado otros docentes o usuarios del OA en cuestión.

Por ejemplo, además de contar con un video acerca del ciclo del agua, un OA completo debería contener alguna información, llamada metadata, sobre la duración del video, su formato, los temas cubiertos, los niveles escolares para los que puede ser útil, el idioma, el país de origen, etc.

Esta información adicional permite que otros docentes interesados en utilizar este mismo video, asumiendo que no hay inconvenientes de carácter legal, tengan una mejor noción de si les conviene o no utilizar esta pieza de información. Si se visualiza este trabajo a un nivel mayor, se puede pensar que existiendo en Internet repositorios de OA de libre acceso, esta información adicional, de carácter didáctico, podrá servir para que la selección de OA que se utilizarán en un proceso de enseñanza aprendizaje sean los más apropiados.

Atributos de los OA

De acuerdo al trabajo de graduación citado, los OA no pueden ser creados como otro recurso más de información. En su concepción debe pensarse que sean recursos con atributos específicos para su interacción en un entorno e-learning, fáciles de localizar, utilizar, almacenar y compartir. Para ello, estos recursos deben ser:

Reutilizables: El recurso debe ser modular para servir como base o componente de otro recurso. También debe tener una tecnología, una estructura y los componentes necesarios para ser incluido en diversas aplicaciones.

Accesibles: Pueden ser indexados para una localización y recuperación más eficiente, utilizando esquemas estándares de metadatos.

Interoperables: Pueden operar entre diferentes plataformas de hardware y software.

Portables: Pueden moverse y albergarse en diferentes plataformas de manera transparente, sin cambio alguno en estructura o contenido.

Durables: Deben permanecer intactos a las actualizaciones de software y hardware.

Cubo OA creado por Néstor Fernández, UNAM, México.

Estos atributos dan sentido a las promesas de los OA como unidades que facilitarán el desarrollo y la expansión global del e-learning. La modularidad que debe caracterizarlos aumenta la versatilidad y la funcionalidad, obteniéndose más recursos disponibles y distribuidos en distintos sistemas que pueden comunicarse para compartir esfuerzos y resultados. La creación de OA no es sencilla, pero los esfuerzos y costos de producción se equilibran con las veces que el recurso pueda ser reutilizable.

Trabajo por hacer

Lo presentado en este artículo es apenas una introducción a los conceptos, ventajas y uso de los Objetos de Aprendizaje, como elementos de importancia en el proceso enseñanza aprendizaje de cualquier nivel.

En El Salvador, desde hace un tiempo, probablemente sin identificarlo de esa forma, se vienen desarrollando utilizando lo que podría llamarse el componente medular de los Objetos de Aprendizaje; esto es, presentaciones, gráficos, fotografías, videos, animaciones, imágenes digitalizadas, etc. como elementos de apoyo a la enseñanza. Algunos de estos OA incipientes se encuentran en portales como el del Ministerio de Educación, www.miportal.edu.sv, y en los discos duros de las computadoras de escuelas, colegios y centros educativos de todo nivel, así como en los espacios privados de los docentes que los han elaborado.

El siguiente paso, importante para realizar las demás ventajas y características positivas de los OA, es completar sus metadatos, empaquetarlos y publicarlos en un repositorio de acceso público. Buena parte de esta labor se busca lograr a través del proyecto que ha dado vida al repositorio AGORA (Ayuda a la Gestión de Objetos Reutilizables para el Aprendizaje), originalmente creado en la Universidad de Castilla de la Mancha, por investigadores de varios países.

En nuestro país, y como parte del Seminario Taller sobre Recursos Digitales para el Aprendizaje que se llevó a cabo en días recientes en la Universidad Centroamericana José Simeón Cañas, que se encuentra trabajando en conjunto con el grupo de la Universidad de Castilla de La Mancha, se presentó un taller para diseminar el uso de la plataforma AGORA. Se espera que esta iniciativa continúe desarrollándose en varias instituciones educativas nacionales e internacionales.

Un poco de cuidado no está de más

Con alguna frecuencia nos enteramos de alguna noticia acerca de fraudes o robos en los que el autor del desfalco ha utilizado los medios digitales y las comunicaciones que la red nos permite hoy en día.

Al igual que en la vida normal, la que ocurre fuera de la red, también en el ciberespacio existen los malos ciudadanos, los deshonestos y los traviesos. Sin embargo, la novedad del medio hace que en muchas ocasiones no tomemos algunas precauciones y cuidados mínimos para reducir las posibilidades de ser víctimas de algún tipo de acción dañina.

Valiéndose muchas veces de la ingenuidad de los usuarios menos experimentados, un cibercriminal puede obtener información valiosa sobre nuestras tarjetas de crédito, contraseñas, números de cuenta, y otras piezas de información que no debería circular tan libremente. Existen varios puntos y formas de ataque dentro de la red, y es importante que se conozcan la mayoría de ellos, ya que en muchos casos, cada uno de nosotros puede hacer mucho para evitar estas actividades, que en muchos países ya se hallan tipificadas como ilícitas.

Acechando la información confidencial
Acechando la información confidencial

Ingeniería social: engañando al usuario

Es interesante que se reconozca que las personas somos la pieza más susceptible y vulnerable dentro de un sistema de seguridad informática, al grado que se ha creado un nombre especial para la disciplina que logra romper los esquemas de seguridad por medio del engaño o la manipulación de los seres humanos.

De acuerdo a Wikipedia, la ingeniería social es la práctica de obtener información confidencial a través de la manipulación de usuarios legítimos. Es una técnica que pueden usar ciertas personas, tales como investigadores privados, criminales, o delincuentes computacionales, para obtener información, acceso o privilegios en sistemas de información que les permitan realizar algún acto que perjudique o exponga la persona u organismo comprometido a riesgo o abusos.

El principio que sustenta la ingeniería social es el que en cualquier sistema «los usuarios son el eslabón débil». En la práctica, un ingeniero social usará comúnmente el teléfono o Internet para engañar a la gente, fingiendo ser, por ejemplo, un empleado de algún banco o alguna otra empresa, un compañero de trabajo, un técnico o un cliente. Vía Internet o la web se usa, adicionalmente, el envío de solicitudes de renovación de permisos de acceso a páginas web o memos falsos que solicitan respuestas e incluso las famosas «cadenas», llevando así a revelar información sensible, o a violar las políticas de seguridad típicas. Con este método, los ingenieros sociales aprovechan la tendencia natural de la gente a reaccionar de manera predecible en ciertas situaciones, -por ejemplo proporcionando detalles financieros a un aparente funcionario de un banco- en lugar de tener que encontrar agujeros de seguridad en los sistemas informáticos.

Algunas de las prácticas y tácticas comunes de la ingeniería social son:

Phishing

Enviar un mensaje falso de correo electrónico que parece provenir de un banco, en el que tenemos o no una cuenta bancaria, y nos solicitan los datos de la cuenta o de la tarjeta de débito o de crédito que mantenemos con ese banco, con el pretexto de actualizar la información, participar en una campaña, o cualquier otra excusa. Muchas veces, dentro del mismo mensaje, hay un vínculo web que, al seleccionarlo, nos puede llevar a una página web que luce como la página real del banco.

Los bancos e instituciones financieras saben de este timo, y no envían estos mensajes, por lo que por regla general, hay que hacer caso omiso de cualquier mensaje en el que se solicite contraseñas, números de cuenta o de tarjetas de crédito, etc.

Engaño telefónico

Podemos recibir llamadas telefónicas en las que alguien se hace pasar por un ejecutivo de un banco o de otra institución, solicitando información confidencial. Lo mejor es negar brindar cualquier tipo de información sensible por teléfono. Si fuera muy necesario intercambiar alguna información, se puede solicitar el teléfono principal de la institución que llama, el nombre y el departamento de la persona que llama, para corresponderle posteriormente.

Engaño para ejecución de un programa

Puede ser que recibamos en nuestros mensajes de correo o en una aplicación de mensajería instantánea, por parte de un desconocido, algún archivo que debe ser ejecutado. El archivo puede venir en forma de presentación, fotografía, video, documento, etc., y al ejecutarlo en nuestra computadora, probablemente ejecute un instalador de un “troyano” o puerta trasera que, en algún momento, pueda darle el control de nuestra máquina a una persona extraña, lejos de nuestras instalaciones, pero que podrá extraer información personal importante.

Lo recomendable es nunca ejecutar archivos que no haya solicitado, y en muchos casos, ser cuidadosos aunque la fuente o la persona que lo está enviando sea alguien conocido. En este caso, puede buscar una confirmación por parte de quien se supone está enviando el archivo, antes de abrirlo.

Engaño por navegación por Internet

En este caso, es necesario acceder a un sitio web para que, a veces de forma automática, se instalen programas “troyanos”, “spyware” o “malware”. Esto ocurre por una configuración no tan segura del navegador, pero también por navegar en sitios web de dudosa procedencia.

Nunca se debe aceptar la instalación automática de estos programas que se descargan de Internet, a menos que estemos seguros de la validez de la fuente.

Acceso a la computadora en forma local o remota

Además de aprovechar la ingenuidad de los usuarios, también es posible que se den ataques directos a los computadores, ya sea en forma local o remota.

Acceso directo a la computadora

Si un atacante tiene acceso físico a una computadora, puede agregar dispositivos físicos o pequeños programas que registran la secuencia de teclas que se introducen. Estos son llamados “key loggers” o grabadores de teclas, que posteriormente, cuando el potencial criminal lo retoma, puede repetir la secuencia de teclas, identificando números de cuenta, palabras clave, números pin, nombres de usuario, etc.

No se debe usar nunca una computadora pública o poco confiable para conectarse a bancos u otras instituciones en las que debemos introducir información confidencial o sensible. Si nuestra computadora es accesible a más personas, siempre será recomendable que el descanso de pantalla entre en acción a los pocos minutos y que solicite una contraseña.

Acceso remoto a la computadora

Aprovechando el acceso a través de la red local, el mismo que a nosotros nos sirve para comunicarnos con el resto del mundo, un atacante puede intentar ingresar en nuestra máquina sin nuestro conocimiento y sin nuestra autorización, y obtener información, archivos, documentos y otros datos relevantes.

Es conveniente instalar en nuestras computadoras un programa firewall, rompefuegos o pared de fuego, de carácter personal. También es importante mantener al día los parches del sistema operativo y de otros programas que tenemos instalados, para reducir los agujeros de seguridad.

Interceptando la comunicación en la red local

Puede ser que los paquetes de información que usted envía al sitio web del banco sean interceptados por dispositivos sofisticados colocados de esta forma por atacantes, probablemente organizados en bandas, y con altos conocimientos técnicos.

Si bien esta forma de ataque no es tan común, por el nivel de conocimiento técnico que requiere por parte de los atacantes, también es importante conocer los niveles de protección y seguridad que mantiene en su red local el equipo de seguridad informática de su empresa o institución, así como la seguridad provista por su proveedor de Internet.

En todos los casos, hay que mantenerse alertas, y ante una situación anómala, como mensajes inesperados, errores inusuales, comunicaciones fallidas, y otros, guardar cierta prudencia.

En este caso, también es importante recordar siempre que cuando se vaya a acceder a una institución bancaria o con la que probablemente realizaremos transacciones sensibles, lo hagamos a través de redes privadas seguras, como la de nuestra oficina y nuestra casa, y de preferencia a través de redes físicamente cableadas. Las redes inalámbricas, si bien representan una gran comodidad, si no nos consta que están configuradas en forma segura, pueden permitir el acceso a muchas personas, y entre ellas pueden estar incluidas algunas con intenciones deshonestas.

La información como negocio

Al final de la década de 1950, en los Estados Unidos, la cantidad de personas cuyos empleos se relacionaban con la provisión de servicios vinculados al manejo de la información sobrepasó por primera vez la cantidad de personas empleadas en la industria y, con un margen mayor, la cantidad de personas que se desempeñaban en la agricultura.

Esta es una tendencia que los demás países, incluyendo el nuestro, han seguido con su propio ritmo. Se trata de otro de esos cambios globales que, casi inconscientemente, vamos experimentando y haciendo propios. Por supuesto, el resultado es mejor si una nación decide conscientemente, como parte de su visión estratégica, desarrollar la infraestructura y a sus ciudadanos, potenciando así la provisión de servicios relacionados con la información, con objetivos bien definidos y con una clara estrategia de posicionamiento en el mercado internacional.

Cabe recordar acá que los servicios ligados con la información son transportables de inmediato, a cualquier parte del mundo, sin cruzar fronteras físicas, someterse a revisiones de aduana o pagar almacenaje (al menos, no en el concepto tradicional de los productos tangibles).

El primer paso en esta línea de negocios es el reconocimiento de que la información y el conocimiento que de ésta pueda derivar mediante la aplicación de inteligencia a la misma, puede ser la materia prima para un proceso de producción. Como otros servicios, la transformación de los fragmentos brutos de información (datos) en conocimiento útil y aprovechable, puede ser realizado por personal interno de una organización, o puede ser encomendado a terceros (“outsourcing” o “tercerización”).

En cualquier caso, la provisión de servicios vinculados a la información requiere no sólo el involucramiento superficial del cliente, sino un compromiso real y sincero con los resultados que se desean obtener, ya que solamente el cliente o usuario final sabe “dónde le aprieta el zapato”.

La tecnología actual y por venir posibilita estos negocios

De acuerdo a la Ley de Moore, acuñada en 1965 por Gordon Moore, co-fundador de Intel Corporation, el poder computacional se duplica cada 18 meses, lo que ha resultado cierto con la introducción contínua al mercado de microprocesadores (el pequeño “cerebro” de los computadores personales y de muchos otros dispositivos) cada vez más veloces, pequeños y potentes. Se dice que si la industria automotriz se hubiera desarrollado al mismo ritmo que la de los computadores, todos conduciríamos automóviles de calidad Rolls Royce, que podrían viajar a la velocidad de 1 millón de millas por hora y costarían 25 centavos de dólar. El factor de incremento de poder computacional desde 1950 hasta nuestros días es de 10,000 millones, y su precio declina cada vez más, al grado en que será posible dotar de “inteligencia” a casi cualquier producto que se diseñe.

Ley de Moore
Ley de Moore

Este espectacular desarrollo en el área de la computación abre grandes e importantes oportunidades de negocio para países como el nuestro, tanto para atender una clientela nacional, como para incursionar en una forma definida en el mercado global.

Las casas corredoras de bolsa, por ejemplo, si bien transan documentos con valor financiero (bonos, reportos, etc.) establecen su ventaja comparativa frente a sus competidores en la calidad y certeza de la información sobre posibles y rentables inversiones que le pueden ofrecer a sus clientes.

Del mismo modo, las bases de datos que registran el historial crediticio de empresas y personas, y ponen disponible esta información a sus “miembros”, instituciones financieras y comerciales que desean tener mayor certeza sobre el comportamiento de sus potenciales deudores, logran beneficios económicos a partir de la venta de información.

Información como materia prima
Información como materia prima

Las consultorías venden el conocimiento y experiencia de una persona o grupo de personas, especialistas en una o más áreas del saber, puestos al servicio, en forma temporal, de los objetivos específicos de la empresa contratante.

Los seminarios, congresos, talleres y otros tipos de encuentros especializados ofrecen información y, en algunos casos, conocimiento, a cambio de una cuota de inscripción.

Los proveedores de conectividad Internet venden la posibilidad de acceder información nacional e internacional. Los diseñadores y albergues para páginas Web hacen posible que anunciemos nuestros productos, seamos conocidos en todo el mundo y establezcamos relaciones comerciales.

Los servicios selectivos de noticias, personalizados a la necesidad y medida de cada individuo, proveen la información generada y actualizada diariamente por las agencias noticiosas, escogiendo solamente aquéllas que son relevantes al usuario, de acuerdo al perfil que el mismo cliente ha definido.

La materia prima es la información

Sin duda, éstos y otros servicios relacionados a la información seguirán desarrollándose en el país, proveyendo de trabajo a muchas personas y de mejores posibilidades de éxito a sus clientes, adentrando a nuestro país cada vez más en la Sociedad del Conocimiento.

Algunos servicios, profesiones y negocios que tienen como materia prima la información han ido desarrollándose y/o surgiendo cada vez más en El Salvador, y otros más con seguridad aparecerán en el corto plazo. Entre ellos (sin ningún orden particular):

· Casas Corredoras de Bolsa

· Agencias de publicidad

· Agentes y compañías de seguros

· Agentes previsionales y Administradoras de Fondos de Pensiones

· Asesores

· Proveedores de bases de datos especializadas

· Proveedores de servicio de Internet (conocidos en inglés como ISP)

· Diseño y/o almacenamiento de páginas Web (“Web hosting”)

· Cibercafés, Infocentros y Telecentros

· Unidades de investigación de la Opinión Pública

· Servicios selectivos de noticias

· Servicios de historial crediticio

· Servicios de referencia

· Centros de documentación

· Bibliotecas (públicas, privadas, especializadas, etc.)

· Venta de programas de computadora “enlatados” (“off the shelf”)

· Desarrollo de programas y sistemas de computadora a la medida

· Provisión de notas, datos, información a teléfonos móviles

· Servicios de consultoría

· Servicios personalizados de recomendaciones de compra

Computación en nube

Para estas empresas que hacen de la información su negocio, su materia prima y su oferta principal, uno de los factores clave de éxito es contar con excelentes sistemas mecanizados de información, versátiles bases de datos, y conexiones veloces, seguras y confiables a Internet.

La Computación en nube (Cloud Computing, en inglés) es un nuevo modelo de negocios, en el que las empresas que proveen los servicios que caen en esta categoría cuentan con amplias dotaciones de recursos informáticos, excelentes sistemas de seguridad, respaldo y conectividad, y sobre todo una gran versatilidad en la configuración de su oferta.

Computación en nube
Computación en nube

Aunque hay varias definiciones, quizá una de las más adecuadas es la siguiente, tomada de Wikipedia: “La computación en nube es un concepto general que incorpora el software como servicio, tal como la Web 2.0 y otros recientes, también conocidos como tendencias tecnológicas, donde el tema en común es la confianza en Internet para satisfacer las necesidades de cómputo de los usuarios.”

Como ejemplos de computación en nube destacan Amazon EC2, Google Apps, eyeOS y Microsoft Azure que proveen aplicaciones comunes de negocios en línea accesibles desde un navegador web, mientras el software y los datos se almacenan en los servidores.

Nuevas oportunidades

La información no tiene límite. Todos los días, a cada instante, nueva información surge, y con el debido procesamiento, almacenamiento y análisis, puede significar una ventaja, una oportunidad de ganar dinero, establecer un mercado, o actuar primero que los demás.

Esto significa que, en muchos casos, la tecnología ya existe para proveer servicios innovadores en el mercado, que permita a sus creadores posicionarse en forma destacada en los negocios, o realizar de mejor manera una actividad que se ha venido haciendo de otra forma hasta hoy.

Aunque se suelen citar los grandes ejemplos de las empresas más famosas en Internet, también existen una gran cantidad de pequeños emprendimientos que están dando su fruto, usando a la información como fuente de riqueza.

La siempre cambiante profesión informática

En un sistema basado en computadoras que funcione en cualquier empresa o institución hay al menos tres elementos que lo constituyen, conocidos en inglés como hardware, software y peopleware. Dicho coloquialmente y en español, se trata del equipo, los programas y el personal.

Cuando se piensa en sistemas de información y alta tecnología, los primeros conceptos e imágenes que acuden a nuestra mente son de máquinas con grandes capacidades de cálculo, procesamiento y tratamiento de información, así como los impresionantes programas o paquetes de aplicación que continua y diariamente pueden hacer nuestro trabajo un poco más fácil y más eficiente.

El tercer elemento de estos sistemas es el personal a cargo de estos equipos y aplicaciones, es decir, los profesionales y técnicos que deben conciliar los objetivos de la empresa en que laboran con las potencialidades que la tecnología ofrece. Con el desarrollo y expansión de la necesidad de contar con personal calificado, instituciones como la Universidad Centroamericana José Simeón Cañas, por ejemplo, comenzó a ofrecer la carrera de Computación en 1984, habiendo sido la primera en hacerlo. En la actualidad existen varias instituciones de educación superior y tecnológica que ofrecen estudios y cursos afines en el área de la computación.

La tercera en demanda

De acuerdo a los datos estadísticos oficiales, mantenidos en el sitio web del Ministerio de Educación, durante el período 1997 a 2007, la demanda por las carreras profesionales en el campo de la computación y la informática, en forma combinada, coloca a la disciplina en el tercer lugar de aspiración de nuestros jóvenes, atrás de las licenciaturas en Administración de Empresas y Ciencias Jurídicas. Curiosamente, sólo en el año 2007 la carrera de Contaduría alcanzó una matrícula levemente mayor que la combinación de la informática.

Matrícula por carreras
Matrícula por carreras

Matrícula por carreras
Matrícula por carreras

Esta cantidad de estudiantes es atendida en El Salvador, según información colectada por el autor hasta 2008, por 20 de las 26 universidades registradas en el país, ofreciendo un total de 25 programas de pregrado (13 licenciaturas y 12 ingenierías), además de 2 programas de postgrado y 11 programas al nivel de técnico.

Títulos otorgados por cada universidad en El Salvador
Títulos otorgados por cada universidad en El Salvador

Áreas temáticas de las asignaturas

También es interesante el enfoque de cada oferta, o el énfasis, según las áreas de competencias que se pueden desarrollar en el profesional. Si usamos una clasificación propia, considerando las definiciones que aparecen a continuación, podemos también analizar la orientación de cada programa de estudio.

Áreas temáticas en las carreras de computación
Áreas temáticas en las carreras de computación

De esta forma, de acuerdo a la cantidad de asignaturas en los planes de estudio en cada área, en promedio, obtenemos esta distribución:

Distribución promedio por área temática
Distribución promedio por área temática

Orientación temática de la carrera

Analizado en forma porcentual, y usando la cantidad de materias por área temática, se puede utilizar un código de colores para observar las orientaciones temáticas de cada plan de estudios ofrecido por las universidades salvadoreñas. Este cuadro se presenta a continuación, con la siguiente codificación de colores:

Codificación de colores
Codificación de colores

Orientación temática de la carrera de computación en El Salvador

Orientación temática de las carreras de computación
Orientación temática de las carreras de computación

Fuente: Elaboración propia

Informática = Especialización

La tabla anterior nos permite introducir la conclusión más relevante de este artículo: actualmente, las profesiones relacionadas con la computación o la informática se encaminan velozmente hacia la especialización.

La velocidad del cambio en los avances y ramificaciones de la tecnología de la información y las telecomunicaciones marca de forma ineludible esa estrategia en la formación de nuestros jóvenes en este campo. Nadie puede pensar actualmente que se puede formar a un “todólogo” en el área de la informática.

Una de las analogías que podemos establecer es con la medicina. En algún momento, muy lejos en la historia, fue posible encontrar un doctor en medicina que pudiera atender un dolor de muelas, un parto y una infección estomacal, casi con la misma eficiencia y conocimiento.

De igual modo, pero mucho más cerca en la historia, podíamos pensar que un experto en computación podría conocer de todos los aspectos de la computación. Y en el principio de la disciplina, esto no estaba demasiado alejado de la realidad.

Sin embargo, nadie debería caer en el error de pensar que su personal de informática, o cualquier profesional de la computación podrá conocer, simultáneamente, y con el mismo nivel de profundidad, acerca de los mejores antivirus, los diversos administradores de base de datos, la operación de los enrutadores, la resolución de nombres de dominio, el diseño de sitios web, los lenguajes de desarrollo de aplicaciones, los productos que aceleran la ejecución de los programas, los dispositivos y principios de seguridad informática, y al mismo tiempo, mantenerse al día con las tendencias en redes avanzadas, web 2.0, compras y fusiones de empresas, el despliegue de IPv6, los estándares en la industria, los desarrollos en comercio electrónico y gobierno en línea, y lo más reciente en educación en línea.

Por citar solamente unos pocos…

Wikinomía: La nueva economía

Aunque no es un libro “reciente” (fue publicado en 2006, y según las actuales referencias temporales, eso es mucho tiempo atrás), siempre es interesante conocer y reflexionar acerca de las novedosas formas de hacer negocios, de estudiar, de desarrollar ciencia, de lanzar nuevos productos y servicios y, en resumen, de las personas y empresas que están contribuyendo a cambiar mucho de nuestra estructura social, mental, cultural y económica.

En torno a este nuevo rumbo de la economía mundial es que nos habla el libroWikinomics: La nueva economía de las multitudes inteligentes”, escrito por Don Tapscott y Anthony D. Williams. En su propio sitio web, www.wikinomics.com, se puede conocer más acerca de la publicación y sus actualizaciones periódicas.

Si partimos de que el vocablo “wiki” busca transmitir la idea de “rápido”, no se aleja mucho de la realidad actual establecer que nuestro entorno productivo es una “economía rápida”, de decisiones audaces, de ideas creativas, de acciones innovadoras, y de colaboraciones extramuros.

Las 3 reglas de oro de Internet

Podemos concordar en que, si bien Internet fue una creación tecnológica, su desarrollo ulterior ha sobrepasado cualquier expectativa original, por grande que ésta fuera, y continua tocando prácticamente todas las áreas y actividades, incluso creando nuevas formas, modalidades y ocupaciones.

Esa evolución ha sido posible porque su diseño original se ha mantenido respetando las 3 reglas de oro de Internet:

1. Que no tenga un propietario

2. Que sea usada por todo el mundo

3. Que cualquiera pueda añadirle servicios

En estos “sencillos” principios se basa el gran éxito de la gran Red. La creatividad y la innovación mundial no se quedan en un pequeño salón. Las personas que usan Internet (“todo el mundo”), y que además tienen la ocurrencia de construir un nuevo negocio en la red, ofrecer una nueva actividad, o buscar aliados para hacerlo, puede modificar la misma red para “añadir un servicio”, y no tiene que pedirle permiso ni pagar una cuota de regalía a nadie, porque “nadie es el dueño” de la red de redes.

Los 4 principios de la Wikinomía

La mayoría de empresas actuales mantienen estructuras de dirección y control jerárquicas y bien establecidas; tratan de atraer y cuidar a personal bien calificado; guardan celosamente su propiedad intelectual o cualquier pieza de conocimiento que los haga diferentes; se enfocan en sus clientes; y actúan en forma local, aunque piensen globalmente.

La mayoría de estos principios deben ser revisados, y en algunos casos, descartados, en la nueva economía. Basados en el estudio de varios casos de empresas y eventos recientes, se establecen las siguientes ideas poderosas:

1. Apertura

En principio, la noción de un sistema abierto es positiva: tener mente abierta, estar abierto a sugerencias, y la mayoría considera mejor un régimen de gobierno abierto. Sin embargo, no todas las empresas abren sus puertas para que sus clientes opinen y modifiquen los productos y servicios que se ofrecen. Se piensa que los sistemas de software de código abierto no son seguros y/o carecen de soporte.

En la nueva economía, la apertura está cada vez más presente, por ejemplo en el tema de las barreras arancelarias, el paso por las fronteras, y el intercambio de estudiantes entre un país y otro. Con todo y algunas imperfecciones, las organizaciones van comprendiendo que la riqueza de la diversidad es grande, y que es necesario abrirse para dejarla entrar.

2. Interacción entre iguales

El estilo predominante de organización empresarial e institucional es el jerárquico. Se ha considerado desde hace mucho tiempo que es importante contar con jefes y subalternos. Y aunque algunas operaciones funcionan bien de ese modo, existe cada vez más también la modalidad de una organización más horizontal.

En los ambientes en que se logra obtener un compromiso personal con los objetivos de la organización, es posible reducir el esquema de jefaturas y jerarquías al mínimo. La red Internet es un ejemplo casi insólito, pues su alcance es mundial, donde no hay un “presidente de Internet”. Las organizaciones que existen se limitan a coordinar el trabajo de miles de individuos, empresas e instituciones en todo el mundo, para lograr acuerdos de operación, pero no pretenderían nunca impartir órdenes.

Las colaboraciones entre pares, entre profesionales y personas que se dedican a lo mismo en el mundo son muy productivas, cuando el aliciente es su propia motivación, y sienten que tienen un espacio propio, y el respeto de sus colegas.

3. Compartir

Tampoco es usual en una empresa tradicional compartir recursos. Y aunque no se trata de dar al traste con la propiedad intelectual, es útil explorar hasta dónde puede ser beneficioso compartir la información y otros recursos con que se cuenta para lograr ganancias de otra forma.

Por ejemplo, la idea de compartir los recursos computacionales ha existido desde hace ya varios años, y ha producido algunos negocios exitosos, como la mayoría de aplicaciones llamadas “peer-to-peer”. Por supuesto, cuando estos nuevos modelos basados en compartir recursos han entrado en escena y han amenazado la posición casi monopólica de otras estructuras, no han sido vistas con buenos ojos por esas empresas anteriormente establecidas, y que deben reinventarse. Un ejemplo de esta trayectoria es el aplicativo Skype (www.skype.com) para hacer llamadas telefónicas y otras comunicaciones utilizando la red, sin mayor costo para el usuario.

4. Actuación global

Los viajes, las vídeo y teleconferencias, las reuniones virtuales, los regímenes de teletrabajo e, incluso, las organizaciones basadas en múltiples países, aunque sean pequeñas, son cada vez más comunes.

La empresa cerrada y limitada a su propia colonia, barrio o ciudad, es aquélla que, por las razones que sean, tiene las manos llenas con ese mercado. Y aun en ese caso, no puede aislarse por completo, so riesgo de recibir la competencia de otra empresa externa y perder aun ese pequeño mercado.

La globalización, que puede ser discutible en sus alcances, no es una opción para los países ni para las empresas. La nueva economía nos obliga a considerar cómo se hacen las cosas en otros países, a unificar criterios con socios, colegas y clientes locales y globales, y a considerar el mundo como el mercado a atender. Si no es por otra razón, porque las empresas del otro lado del mundo están considerando nuestro mercado como el que hay que servir.

Wikinomía y Web 2.0

El ambiente en que vivimos está plagado de nuevas tendencias, cambios, paradigmas, nombres exóticos y acrónimos. Esto es lógico: es parte del mismo torrente de innovación, creatividad y competencia que experimentamos.

Por ello, podemos conversar un poco acerca de otro concepto, relacionado pero con una orientación diferente, que también ha surgido de las 3 reglas de oro de Internet. Por supuesto, hay muchísimos conceptos surgidos en la vida de Internet, pero no todos provienen o reflejan una abstracción filosófica que en realidad establezca una tendencia mayor.

Wikinomía, como hemos establecido, es un cambio en la economía, en las formas de organizarse y buscar sus objetivos que tienen las empresas. El concepto se encuentra más desarrollado, e ilustrado con numerosos ejemplos reales, en el libro citado antes.

Web 2.0, por su parte, se refiere al fenómeno global de la participación y socialización en la red. Hay empresas que, construyendo sus modelos de negocio y siendo parte de la Wikinomía, han impulsado cambios en los niveles de participación de las personas, dando lugar al Web 2.0. El fundamento de Web 2.0 es tecnosocial, el de Wikinomía es económico.

Hay muchos ejemplos de empresas Wikinómicas que han impulsado el Web 2.0: MySpace, Flickr, Wikipedia, Facebook, Linux, InnoCentive, YouTube, etc. Pero también hay empresas que pueden estar en la nueva Wikinomía, sin necesariamente ser parte del Web 2.0, y viceversa.