La espiral necesidad-satisfacción-necesidad

La interrelación y trabajo conjunto que debe ocurrir entre dos disciplinas académicas, científicas o tecnológicas diferentes conlleva un buen número de habilidades de comunicación de parte de todos los involucrados, precisamente para lograr transmitir mensajes que cruzan dos o más fronteras del conocimiento y marcos conceptuales.

En el caso concreto de la informática, dado que se trata de una disciplina eminentemente de servicio a otras profesiones y oficios, la habilidad para comunicarse de una forma eficiente y completa es de suma importancia. El lenguaje técnico, tanto verbal como escrito y gráfico, que se usa dentro de la carrera de la computación es necesario y muy útil, pues es capaz de contener y transmitir mucha información importante para que los análisis, diseños y codificación de los programas realicen lo que deben ejecutar, según han sido concebidos.

Pero ese lenguaje propio de la computación, al igual que en el caso de otras disciplinas, es tan valioso para los profesionales de esta disciplina, como inútil y molesto para la mayoría de los demás profesionales.

La tarea de transmitir una idea, una concepción, o la descripción de necesidades para que una persona que intentará diseñar un sistema para solventarlas, no es sencilla para ninguna de las partes. Las preconcepciones, desconocimientos y experiencias previas que tenemos cada uno de nosotros sobre cada concepto intervienen en todas la comunicaciones que realizamos, y esto establece un límite importante en el mensaje que transmitimos y recibimos.

La conocida y antigua metáfora de la construcción del columpio ilustra en forma humorística esta realidad tan importante.

Por si no se alcanza a ver, las leyendas en cada figura se leen así, de izquierda a derecha, de arriba abajo:

  1. La solicitud del usuario
  2. Lo que entendió el líder del proyecto
  3. El diseño del analista de sistemas
  4. El enfoque del programador
  5. La recomendación del consultor externo
  6. La documentación del proyecto
  7. La implantación en producción
  8. El presupuesto del proyecto
  9. El soporte operativo
  10. Lo que el usuario realmente necesitaba

Las figuras 1 a 5, así como la 10, reflejan fases del proceso de desarrollo de un sistema de información. Las figuras 6 a 9 tienen que ver con otros aspectos del entorno del mismo tipo de proyectos. Cada una de estas figuras daría mucho material para reflexionar, discutir y, con este enfoque, también bromear.

Las barreras

De forma igualmente alegórica, se pueden listar frases cortas que intentan mostrar parte de los prejuicios y concepciones, acertadas o no, que tanto los usuarios (entendiendo como tales a las personas que utilizan los sistemas de información, independientemente de su formación, experiencia, edad, y otras características) como los desarrolladores (abarcando de este modo a todos los que intervienen en el proceso de desarrollo y construcción de un sistema de información.

Barreras de usuarios

Las computadoras reducen la creatividad

“La computadora tuvo la culpa”

Las computadoras desplazan empleados

Son sólo para “iniciados”

Pueden hacer cualquier cosa

Son sinónimo de programación

“Alguien más lo puede hacer por mí”

“Si tengo una computadora voy a trabajar todo el tiempo”

“Pretenden hacernos ver como tontos”

“Estoy demasiado viejo para aprender”

Es muy difícil de aprender

“Podría cometer errores”

Los métodos antiguos funcionan bien

Los técnicos no pueden expresarse sin usar un lenguaje confuso y rimbombante

“Mi área de saber no es susceptible de llevarse a computadora”

Problemas de “mala sangre” entre las personas

Barreras de desarrolladores

Un buen trabajo no se aprecia

Los usuarios no saben lo que quieren y no pueden definir sus necesidades

Los usuarios no le dedican el tiempo necesario al desarrollo del sistema

Los usuarios cambian las prioridades de los proyectos de desarrollo

“Mi trabajo es desarrollar una aplicación (mecanizar lo que se hacía manualmente) y nada más”

“Yo debería estar trabajando como jefe”

Los usuarios nunca están satisfechos: siempre quieren más

La espiral necesidad-satisfacción-necesidad

Precisamente esta última idea, la de que los usuarios nunca parecen satisfechos, es la que da origen a una sencilla concepción gráfica para explicarlo: la espiral necesidad-satisfacción-necesidad.

Una amplia porción del mercado de la industria de tecnología de información y comunicaciones (TIC) está formado por el desarrollo y/o adecuación de aplicaciones informáticas para atender y resolver los procesos y problemas que se dan en todas las empresas e instituciones del mundo.

El reto principal ha sido, desde siempre, que el diseñador y el programador comprendan el fenómeno que se pretende mecanizar y automatizar con ayuda de las computadoras. Existen un buen número de metodologías para intentar acercar a los profesionales del diseño y la programación a los demás procesos. Estas metodologías y enfoques han evolucionado con los años, lo mismo que las tecnologías de desarrollo, lo que permite velocidades mayores entre la definición de requerimientos y la presentación de prototipos.

En este proceso, es esperado que, después de desarrollar una primer versión de una aplicación, que haya observaciones, cambios y ajustes. Aun cuando la aplicación se entregue y se dé por concluida, siempre habrá una nueva necesidad que envía de nuevo a los desarrolladores a su estación de trabajo. Esta es la espiral necesidad-satisfacción-necesidad en el desarrollo de sistemas informáticos.

Lo que es más importante, sin embargo, es que lejos de considerar esta constante interacción como una molestia o una señal de insatisfacción por parte del usuario, debe ser visto como el involucramiento y aceptación del sistema por sus destinatarios, al punto de desear mejorarlo todo el tiempo, reconociendo que la aplicación provechosa de las TIC en cualquier negocio puede marcar la diferencia.

Algunas propuestas

Es importante establecer y acordar que los objetivos de unos y otros, usuarios y desarrolladores, son los mismos, pues se encuentran definidos en relación a los grandes objetivos de la empresa o institución donde laboran. Siendo ése el caso, es vital considerar lo siguiente:

Para asegurarse de considerar al usuario en el desarrollo

El desarrollo es para satisfacer los objetivos del usuario, no de los analistas

El grupo de sistemas no debe asumir la responsabilidad del desarrollo individualmente

Debe nombrarse un administrador del proyecto por parte del grupo usuario (“campeón”)

El grupo usuario debe entender y aceptar el compromiso y responsabilidad del desarrollo, proveyendo tiempo para las reuniones y evaluaciones de seguimiento

La participación del grupo usuario debe ser activa, no pasiva

Los planes en el tiempo deben ser realistas, considerando los recursos y la dedicación de los mismos

El grupo de sistemas debe tomar en consideración los comentarios y opiniones de todos los usuarios, llevando a discusión general aquellos que sean conflictos potenciales

La(s) gerencia(s) involucradas deben mantenerse informadas de los avances y problemas relevantes del desarrollo

Los nuevos requerimientos deben

Responder a los objetivos generales de la organización y el sistema

No entrar en conflicto con requerimientos de otros usuarios

Ser rentables, en términos de costo-beneficio

Reflejar un entendimiento claro de las potencialidades del sistema

Ser justificados desde la perspectiva del usuario

Los factores humanos que deben mantenerse presentes

1. Mantener la sencillez

2. Ser consistente

3. Diseñar y mostrar terminación de tareas

4. Apoyar la sensación de control del usuario

5. Proveer atajos y formas alternas de hacer las cosas

6. Manejar errores adecuadamente

7. Permitir la reversión de acciones fácilmente

8. Usar efectivamente la sorpresa o diferenciación

9. Evitar confundir al usuario

Computación en la nube

Si un amigo nos dice que “andamos en la nube”, nuestra primera interpretación posiblemente será que nos está llamando “distraído” o “descuidado”. ¿Puede entonces un computador “estar o andar en la nube”?

La denominación puede sonar, cuando menos, extraña. Si se pluraliza, “computación en las nubes” puede transmitir las ideas de una forma distraída o descuidada de trabajo en la informática (“Fulano siempre anda en las nubes”), o de algo de precio elevado (“el costo de ese servicio está en las nubes”).

Pero así, en singular, y proveniente de la traducción de “Cloud Computing”, refleja una de las tendencias contemporáneas en la forma que las organizaciones, empresas e instituciones, de todo tamaño, tienen para realizar tareas computacionales, con sus ventajas y posibles inconvenientes.

El origen del nombre reside en los diagramas, usados desde hace muchos años, en los que la red de redes, Internet, es representada como una nube a la que se accede desde los computadores y servidores localizados en cualquier parte del mundo. Una nube resultó ser una imagen idónea para representar es conjunto millonario de aparatos y dispositivos, así como contenidos, datos y aplicaciones que están “allá afuera”, “en la nube”.

Sin embargo, es importante aclarar que el concepto no es nuevo. En la década de los 80, por ejemplo, Scott McNealy, Director ejecutivo de Sun Microsystems por muchos años, había establecido que “la red es la computadora”. El uso de terminales sin mucho poder computacional conectándose a un “cerebro” central fue por mucho tiempo el paradigma funcional de la computación empresarial, y esta vuelta retro con el nombre renovado “en la nube” puede verse como una reencarnación de aquellos propósitos.

¿Qué es la computación en la nube?

El concepto está basado en tener acceso a todos nuestros datos y programas desde donde sea a través de Internet (que es la nube). Es decir, aprovechar el almacenamiento en línea o usar un centro de procesamiento remoto para ejecutar las operaciones de una empresa. (Google Docs, Google Apps, Amazon Web Services, etc.)

Otra forma de verlo es tener una computadora portátil con un hardware y software mínimo de arranque, que simplemente aprovecha al máximo el ancho de banda de Internet para procesar datos que se encuentran guardados en algún lugar remoto, pero que no permite notar la diferencia de tenerlos en nuestra máquina o en algún lugar del otro lado del mundo.

A nivel personal, se puede pensar en los almacenamientos y procesamientos de documentos, presentaciones y hojas electrónicas que se hacen en la red, a veces sin copias en computadores locales, y que permiten agregar valor, como el trabajo colaborativo a distancia, la descarga de archivos propios estando en ubicaciones remotas, etc. Este blog, y la mayoría de blogs, son un ejemplo de ello.

Más ampliamente, en una situación ideal, pero no lejana de la realidad, en la computación en la nube se habla de enormes grupos de servidores y un ancho de banda de red muy amplio y un acceso bastante rápido.

Esta idea abre la puerta a otras posibilidades: alquilar un computador virtual, a la medida, con una velocidad de procesamiento para nuestras necesidades, capacidad de memoria y disco según nuestros requerimientos, y con el sistema operativo que sea apropiado a nuestras operaciones. Una vez nos han configurado este computador para nuestro uso, “en la nube”, podemos comenzar a poblarlo con nuestros datos y aplicaciones.

Otra posibilidad interesante es el alquiler del servicio de procesamiento, es decir, el ya ampliamente discutido paradigma del “software como servicio”. En este caso, el proveedor ofrece, además de la plataforma, el equipo, procesador, memoria y almacenamiento, los programas informáticos adecuados a las necesidades del cliente.

Ventajas y desventajas

Hay un continuo debate en torno al tema. Los defensores arguyen que los costos para las empresas que contratan estos servicios “en la nube” se reducen, y se incrementa la flexibilidad y velocidad de respuesta ante nuevos requerimientos, además de que las aplicaciones se encuentran disponibles como la red: 7 x 24 y desde todo el mundo.

En su contra, hay que decir que aun existen temores acerca de la seguridad y privacidad de los datos contenidos. Acuerdos legales y copias de respaldo en las propias manos pueden ayudar a mitigar estas posibles desventajas.

Entonces, los pro y contra se pueden resumir así:

A favor

Ahorro. Libera de gastos tanto en infraestructura como en recursos humanos. No necesitaremos personal que gestione el sistema porque otros lo administran por nosotros.

Escalabilidad. Se trata de un sistema extremadamente flexible, las necesidades pueden corresponderse con nuevos recursos casi automáticamente por el proveedor.

Ubicuidad. Al estar en la nube y no en el escritorio podremos acceder a los datos estemos en el sitio en el que estemos.

En contra

Privacidad de los datos. El tráfico de los datos estará continuamente en manos de otros. Por eso es necesario ser muy escrupuloso con la elección del proveedor, debe ser una empresa de total confianza y con una gran solvencia pública.

Dependencia de una empresa. Por eso vuelve a ser necesario elegir con mucho cuidado. Las soluciones de las grandes empresas sector suelen ser una solución segura.

Como todas las tecnologías lo mejor que tiene la Computación en la Nube es que es una posibilidad más para elegir, pero cada cual tiene que hacer balance y decidir cual es la mejor elección para su negocio.

La computación como “commodity”

Si abstraemos un poco la reflexión a partir de esta tendencia “en la nube”, podemos pensar que los servicios de alquiler de procesamiento de datos, de uso de software, almacenamiento, respaldo y custodia de información se están volviendo cada vez una mercadería de fácil intercambio, un “commodity”.

La definición de “commodity” es: Término anglosajón que se aplica a todo producto vendido a granel, a menudo se vende en los mercados financieros. Los más comunes son el oro, el café, el petróleo, etc. y las materias primas que se transan en los mercados mundiales.

Por extensión, anticipamos que esta forma de negocio puede ser destacada en el futuro, con su respectiva porción del mercado latinoamericano, tanto del lado de los proveedores como de los consumidores de los servicios ofrecidos “en la nube”.

Así que la próxima vez que le pregunten si usted anda “en la nube” no lo tome a mal. Quizá sea un buen augurio a su próximo negocio exitoso.

5 de Octubre: Día del profesional de la informática

Un experto en los procesos, un artesano de los datos, un guardián de la información, un aprendiz permanente, un asesor tecnológico. Son varias las caracterizaciones que puede tener el profesional contemporáneo de la informática.

Igualmente variadas son las expectativas que se tienen hoy en día respecto a un profesional de las disciplinas científicas y tecnológicas que tienen relación con las tecnologías de información y comunicaciones. Por cierto, la cantidad y variedad de profesiones, tanto de nivel técnico como de los niveles de grado y postgrado, han ido en veloz crecimiento en los tiempos recientes, siendo este fenómeno un reflejo de los avances de la tecnología en los laboratorios y en el mercado.

Con frecuencia utilizo la figura de las profesiones de la salud para establecer una analogía con la evolución de las carreras en el campo de la informática. En los primeros años en los que se comenzó a practicar la profesión de la medicina, es claro que los médicos de ese entonces conocían mucho, sino todo, lo que había que conocer dentro de la medicina hasta el día en estaban viviendo. El conocimiento que existía en el mundo acerca de las formas de remediar los dolores, achaques, males y enfermedades, de todas las partes y funciones del cuerpo humano, era bastante reducido, y podía ser que una solo persona tuviera un dominio aceptable y bastante completo de lo que se podía hacer en cada caso. Por supuesto, también eran relativamente pocos los padecimientos que podían ser atendidos.

Aun hoy en día, en lugares alejados, poco habitados, o situados en regiones desposeídas, no es extraño encontrar un médico que debe contar con una amplia gama de competencias y conocimientos, para intentar proveer alivio a la mayoría de pobladores de la vecindad.

En la actualidad, sin embargo, la ciencia de la salud ha avanzado tanto que es imposible que un solo ser humano conozca con profundidad todas las áreas del saber médico, y a nadie se le ocurriría acudir a un oftalmólogo para que le ayude a remediar problemas estomacales, por ejemplo. Es más, existe un elevado grado de especialización en la medicina, de suerte que es muy probable que después de una primera consulta, una persona sea remitida a la clínica de un especialista para determinar con más precisión el diagnóstico, y recomendar el tratamiento más idóneo.

Una profesión con múltiples facetas

El área de la informática está viviendo esa misma evolución: desde lo general y el conocimiento completo, hasta lo muy específico y un conjunto limitado de conocimientos focalizados en alguna área específica.

Esto trae algunas consecuencias. Por ejemplo, las empresas deben saber qué tipo de especialista necesitan contratar para suplir sus necesidades, y definir de una manera más precisa el perfil de los candidatos. Esas mismas empresas han debido crear más de una plaza para cubrir los distintos requerimientos que tienen en el área de los sistemas, las redes, el mantenimiento, las bases de datos, la tecnología Internet, la seguridad, etc.

Tanto los gerentes generales, los tomadores de decisión y los órganos máximos de dirección de las empresas, instituciones y organizaciones de todo tipo y tamaño, así como los profesionales de la informática contemporáneos deben conocer sus limitaciones, y si bien los profesionales de la informática pueden estudiar y aportar opiniones sobre diversos temas, tendrá mucho peso la experiencia concreta en la que se haya especializado.

Un ecosistema particular

En un sistema basado en computadoras que funcione en cualquier empresa o institución hay al menos tres elementos que lo constituyen, conocidos en inglés como hardware, software y peopleware. Dicho coloquialmente y en español, se trata del equipo, los programas y el personal.

Cuando se piensa en sistemas de información y alta tecnología, los primeros conceptos e imágenes que acuden a nuestra mente son de máquinas con grandes capacidades de cálculo, procesamiento y tratamiento de información, así como los impresionantes programas o paquetes de aplicación que continua y diariamente pueden hacer nuestro trabajo un poco más fácil y más eficiente.

El tercer elemento de estos sistemas es el personal a cargo de estos equipos y aplicaciones, es decir, los profesionales y técnicos que deben conciliar los objetivos de la empresa en que laboran con las potencialidades que la tecnología ofrece. Con el desarrollo y expansión de la necesidad de contar con personal calificado, instituciones como la Universidad Centroamericana José Simeón Cañas, por ejemplo, comenzó a ofrecer la carrera de Computación en 1978 en El Salvador, habiendo sido la primera en hacerlo. En la actualidad existen varias instituciones de educación superior y tecnológica que ofrecen estudios y cursos afines en el área de la computación.

Las responsabilidades

Por la misma razón de ser una disciplina muy joven, y con una evolución tan acelerada en el nivel de especialización requerido, es comprensible que no sea muy conocida la necesidad y realidad de esta separación e integración de trabajo multifacético.

También es importante tener claras las funciones y responsabilidades que competen a los profesionales de la informática, y los roles que juegan los demás funcionarios y cargos dentro de una empresa o institución, en cuanto al manejo de la información.

La transición de un departamento centralizado de computación hacia la posibilidad de realizar muchas funciones de tratamiento de información y datos en casi todas las unidades de una empresa continúa en proceso de desarrollo, y en muchos casos, por ejemplo, ha reducido el tamaño de los equipos que digitan la información que se ingresa a un sistema de información, porque ha trasladado esta función a lugares más cercanos de donde se realizan las operaciones.

Por ejemplo, una empresa distribuidora de mercancías de cualquier tipo, con sucursales en todo el país, en el pasado debía colectar todos los documentos de venta de cada sucursal, y enviarlos físicamente para que fueran procesados en la central. Un paso posterior fue contar con una pequeña “central” de procesamiento en cada sucursal, y llevar a la central la información por separado, para que fuera consolidada. La situación y la tecnología actual le permite mantener los datos actualizados, en línea y en tiempo real, ingresando las facturas, por ejemplo, por el mismo vendedor en cada sucursal, independientemente de la distancia entre la sucursal y la central.

Para hacerlo, intervienen una buena cantidad de especialistas: redes, seguridad, base de datos, desarrollo de sistemas, analista de procesos, mantenimiento, energía eléctrica, etc. Aunque se mantiene algún traslape de conocimientos, las responsabilidades van siendo cada vez más compartidas y atomizadas.

Una felicitación y reconocimiento especial

A todas y todos esos especialistas, que detrás de bambalinas hacen posible que la información de cada empresa e institución se mantenga actualizada y segura, al mismo tiempo que se logran las características de calidad de la información: oportunidad, concisión, integridad, pertinencia, brevedad, adaptabilidad, etc.

A todas y todos los ingenieros, licenciados, técnicos y empíricos que, desde sus propias, y muchas veces ocultas, bases de operaciones, realizan su importante aporte a la eficiencia y efectividad de las actividades de cada empresa.

A todas y todos los colaboradores que van más allá de sus funciones nominales y, comprendiendo la dimensión e importancia de su papel en su empresa o institución, aporta las recomendaciones, llamadas de atención, sugerencias e ideas innovadoras, para apoyar los objetivos de su organización.

A todas y todos ellos, con motivo del Día Nacional del Profesional de Informática, celebrado en El Salvador el 5 de octubre de cada año, felicidades y gracias, por hacer de éste un mejor país.

IPv6: Más direcciones que arenas en la playa

Tal vez haya escuchado el acrónimo IPv6, o quizá le haya pasado desapercibido, pero se trata de uno de los cambios más importantes que se está desarrollando en Internet, en forma casi silenciosa. Se trata, dicho brevemente, de un cambio en el protocolo de comunicaciones en el que se empaquetan los mensajes que circulan en Internet, una vez segmentados, para que viajen de un punto a otro, y se vuelvan a armar en el extremo de llegada.

Un protocolo es un conjunto de reglas y definiciones que los fabricantes de los aparatos y dispositivos que se usan para un propósito específico deben seguir en el momento de diseñar y manufacturar sus productos. En este caso, el protocolo IP (Protocolo Internet) debe ser acatado por los productores de equipos para comunicarse en Internet.

Actualmente, la mayor parte de comunicaciones se realizan utilizando la versión 4 del protocolo IP, pero se están realizando esfuerzos intensos para dar a conocer los mecanismos de transición de ésta a la versión 6, pues se considera importante lograr el cambio total hacia este nuevo conjunto de reglas y acuerdos.

¿Qué hacen las direcciones IP?

Una de las características más reconocidas y fáciles de comprender de las direcciones IP, independientemente de la versión, es que cada dispositivo que está conectado a Internet debe tener un identificador único, llamado dirección IP, para que los mensajes y paquetes dirigidos a ese dispositivo puedan llegar en forma correcta y completa a su destino.

Las direcciones IPv4 usan 32 bits (dígitos binarios) para construir los identificadores únicos, separados, para efectos de comprensión del ser humano, en 4 bloques de 8 bits, cada uno de los cuales puede tener un valor que va desde 0 hasta 255. Esto completa 256 valores, que es la cantidad de combinaciones binarias que se producen con cuatro dígitos, obtenida matemáticamente de elevar 2 a la cuarta potencia.

Haciendo un poco de matemática binaria, comprendemos que con 32 bits disponibles, la cantidad de direcciones únicas en Internet son un poco más de 4 mil millones. Si bien es un número bastante grande, ya hace varios años los ingenieros de Internet comenzaron a prever que en algún momento esa cantidad de direcciones y de posibles dispositivos conectados simultáneamente a Internet podría quedarse corta, atendiendo a las tendencias de crecimiento de la red de redes.

Después de mucha discusión técnica en varias partes del mundo, e incluso de una versión intermedia del protocolo (IPv5) que fue desechada, se arribó al consenso sobre el nuevo diseño, y gracias a la versión 6 del protocolo IP, que establece direcciones de longitud de 128 bits, será posible contar con “3.4 multiplicado por 10 elevado a la 38 potencia” direcciones.

Esta es una cantidad de direcciones IP accesibles para comunicar dispositivos en Internet tan grande, que algunos han llegado a comparar dicha cantidad con la de arenas en la playa, y de estrellas en el universo. Es decir, se trata de magnitudes que resultan hasta difíciles de imaginar.

Un poco de tecnología

Si bien este apartado contiene elementos quizá excesivamente tecnológicos, será breve y tal vez abone a la comprensión adicional del tema de la necesidad de migración de una versión a la otra en todas nuestras instalaciones de red conectadas a Internet.

Además de los cambios en la cantidad de direcciones, la nueva versión también comprende modificaciones en la estructura de los paquetes de datos que viajan en el ciberespacio. Baste decir esto muy brevemente, de forma que si alguien se interese, pueda estudiar un poco más sobre el futuro del Protocolo Internet.

Los paquetes de la versión IPv4 tienen 192 bits, (10 campos, 2 direcciones y opciones).

Los paquetes de datos en la versión IPv6 tienen 320 bits (6 campos y 2 direcciones).

¿Por qué se desea realizar el cambio a IPv6?

El esfuerzo de esta migración es masivo e intenso, supone capacidad técnica y una clara comprensión de los aspectos involucrados, así como de equipo, hardware y software, diseñado expresamente para poder conocer y dar paso a los paquetes con esta nueva versión.

A pesar de ello, es un proceso que debe realizarse en la mayoría de instalaciones, y en el menor plazo posible. Un solo motivo existe detrás de estos esfuerzos: tener más direcciones IP disponibles en la red mundial de Internet.

La mayor cantidad de direcciones son necesarias para atender la creciente demanda de las mismas, a nivel mundial, para:

* Miles de millones de nuevos dispositivos: teléfonos celulares, PDAs, dispositivos de consumo, automóviles, aparatos de medición, etc.

* Miles de millones de nuevos usuarios: China, India, países con economías emergentes, etc.

* Tecnologías de acceso “always-on” (siempre necesitan estar en línea)

* Nuevos tipos de aplicaciones y nuevos mecanismos de acceso que requieren direcciones únicas, sin admitir mecanismos de traducción de direcciones, como los conocidos NAT (Network Address Translations).

Adicionalmente, la nueva versión del protocolo IPv6 tiene como ventajas:

* Capacidades ampliadas de direccionamiento

* Autoconfiguración y reconfiguración sin servidor (“plug and play”)

* Mecanismos de movilidad más eficientes y robustos

* Incorporación de encriptado y autenticación en la capa IP

* Formato de la cabecera simplificado e identificación de flujos

* Soporte mejorado de opciones y extensiones

* Más facilidad para configurar la seguridad de acceso

Para conocer más sobre IPv6

El 14 de octubre próximo, en la Universidad Centroamericana José Simeón Cañas, a partir de las 8 de la mañana, y durante todo el día, tendremos la oportunidad de conocer más acerca del nuevo protocolo IPv6, gracias a un seminario taller que será impartido por Jordi Palet Martínez, un verdadero profeta del IPv6 a nivel mundial.

Jordi Palet Martínez
Jordi Palet Martínez

La entrada es gratuita, y solamente debe registrarse enviando su nombre, empresa y dirección electrónica a daguilar@bib.uca.edu.sv.