Archivo de la categoría: Desde el aula

Más antecedentes e historias tempranas de Internet

En la anterior entrada de este blog comentamos detalles que escuchamos y aprendimos en la charla de Leonard Kleinrock, realizada el 1 de febrero de 2017 en ICANN Los Ángeles. Aquí hay algunos otros.

Kleinrock preguntó en su charla quién habría hecho las siguientes premoniciones:

  • “Será posible para un hombre de negocios en New York dictar instrucciones, y verlas aparecer instantáneamente por escrito, en Londres o en cualquier otro sitio”
  • “Él podrá llamar desde su escritorio a cualquier persona por teléfono en el globo”
  • “Un instrumento barato, no más grande que un reloj de pulsera, permitirá a quien lo utilice escuchar en cualquier lugar, en mar o tierra, música o canciones, el discurso de un político, la conferencia de un eminente científico, o el sermón de un elocuente clérigo, desarrollado en cualquier otro lugar, no importa qué tan lejano”
  • “En la misma forma, una imagen, personaje, dibujo o impresión puede ser transferido de un lugar a otro”.
Fuente: Charla de Leonard Kleinrock en ICANN Los Angeles, 1/feb/2017

Aunque en su momento de la historia no se supo apreciar, ahora se sabe que Nikola Tesla fue el verdadero genio detrás de la distribución de la energía eléctrica, usando la corriente alterna, en lugar de tratar de hacerlo, ineficientemente, por medio de la corriente directa, como sostenía Thomas Alva Edison. Este mismo inventor insuficientemente reconocido, Tesla, tuvo la visión de anticipar mucho de lo que hoy es algo cotidiano, y lo hizo en 1908, por medio de las frases que aparecen arriba.

Boletín de prensa de 1969

En una declaración escrita para la prensa, publicada el 3 de julio de 1969, Leonard Kleinrock presentaba su propia visión de lo que unos años más tarde sería realidad:

“En la actualidad, las redes de computadoras están en su infancia. Pero a medida maduren y sean más sofisticadas, probablemente veremos la diseminación de ‘servicios utilitarios computacionales’ que, como los servicios utilitarios de electricidad y telefonía, le darán servicio a hogares y oficinas individuales en todo el país”.

Fuente: Charla de Leonard Kleinrock en ICANN Los Angeles, 1/feb/2017

Sin duda, estas visiones tempranas se hicieron realidad algún tiempo después, de manera que los “servicios utilitarios computacionales” son los actuales servicios basados en la web; la comparación con los otros servicios utilitarios se refleja en que la conectividad actualmente está siempre encendida y disponible, en muchos lugares; y la propagación ciertamente es ubícua.

La primera conexión entre dos computadores, uno en UCLA (Universidad de California en los Ángeles) y el otro en SRI (Instituto de Investigación de Stanford), fue posible en septiembre de 1969, gracias al primer “Interface Message Processor” (IMP), considerado el tatarabuelo de los actuales enrutadores utilizados en todo Internet.

Fuente: Charla de Leonard Kleinrock en ICANN Los Angeles, 1/feb/2017

Los inconvenientes comenzaron 20 años después

Casi 20 años después de que se diera la primera conexión entre computadoras, y la Internet comenzara a crecer, comenzaron a darse los problemas, debido a usos inapropiados de la red en crecimiento.

En 1988, Robert Morris creó e introdujo el primer gusano en la red, y el 12 de abril de 1994 se envió el primer correo no deseado, correo basura o spam, como se conoce en la actualidad.

Fuente: Charla de Leonard Kleinrock en ICANN Los Angeles, 1/feb/2017

Este primer mensaje no deseado era la publicidad masiva realizada por dos abogados norteamericanos que ofrecían sus servicios de asesoría para los inmigrantes que deseaban participar en la lotería de tarjetas verdes o “green cards” que se sorteaban entre inmigrantes de algunos países que calificaban dentro de las condiciones. Se anunciaba que dicha lotería podría terminar pronto. Incidentalmente, los inmigrantes nativos de nuestro país, El Salvador, NO calificaban para estos sorteos, junto a otros países, como se puede leer en el primer spam de la historia.

Respecto a la (falta de) seguridad y apertura de la red, Kleinrock comentó que en los primeros años, de hecho la intención era precisamente     que todos los futuros usuarios encontraran la entrada y participación sin ninguna barrera. Su mente de científicos les motivaba a mantener abierta la red, y no considerar ninguna malicia ni malas intenciones de parte de los usuarios, actuales y futuros, de la red.

Lamentablemente, se equivocaron en ese alto nivel de confianza en los que serían los futuros usuarios de Internet, y hoy en día es necesario invertir muchos recursos en la protección de los activos, servidores y datos en Internet.

 

 

Una charla especial con Leonard Kleinrock: uno de los científicos que crearon Internet

Como se ha dicho varias veces, Internet es una de las grandes creaciones de la humanidad que el siglo XX nos dejó. Dada la relativa juventud de esta tecnología, muchos de sus creadores aun permanecen activos, y continúan impartiendo charlas, clases, desarrollando tecnologías y orientando a las generaciones que vienen atrás.

Quien escribe ha tenido el privilegio de conocer, escuchar y conversar con algunos de estos ingenieros a lo largo de algunos años, conociendo de primera mano a los héroes originales que concibieron e hicieron posible la realización de la red de redes.

En un entorno privado, en las oficinas centrales de ICANN, Leonard Kleinrock, Profesor Distinguido de la Universidad de California en Los Ángeles, matemático de profesión, se dirigió a un pequeño grupo para relatar su participación y proximidad en la construcción de Internet, así como su apreciación de lo que sucede actualmente y lo que puede constituir el futuro.

Steve Crocker, Lito Ibarra y Leonard Kleinrock – ICANN Los Angeles, 1 de febrero de 2017

Además de algunos datos personales, el doctor Kleinrock compartió la historia de la concepción y desarrollo de la red ARPA Net, que un poco después sería llamada Internet. A continuación algunos extractos.

Estaba en el aire

Como muchas ideas de la humanidad, hay un momento en el que la secuencia de eventos precedentes, las circunstancias de las personas en el mundo y ese vínculo, visible o no, que nos une como humanidad, hace posible que similares ideas sean concebidas en distintas partes del planeta.

Así, Kleinrock comenta que, a partir de 1958, cuando se fundó la agencia ARPA en Estados Unidos, motivados por el hecho de que en 1957 los rusos lanzaran el Sputnik al espacio, lo que se consideró una derrota en el liderazgo tecnológico en el mundo, comenzaron, sin previo acuerdo, tres esfuerzos paralelos que incidieron en el desarrollo de la red: la teoría matemática de Kleinrock en MIT, el desarrollo de la infraestructura de Baran en RAND, y la ingeniería desarrollada por Davies, en NPL, en Inglaterra.

Fuente: Charla de Leonard Kleinrock en ICANN Los Angeles, 1/feb/2017

La motivación principal para desarrollar esta red no era la salvaguarda contra una guerra y eventual catástrofe nuclear, como se ha querido hacer ver, sino la incipiente pero creciente necesidad de los científicos e investigadores de compartir recursos computacionales, mucho más caros y escasos en ese entonces.

Kleinrock concluye rápidamente que, aunque no hubiera existido ninguna de estas personas, Internet se habría desarrollado de todos modos, y presenta la secuencia de eventos que sucedieron en esos años. El primer ancestro de los actuales enrutadores fue conectado el 2 de septiembre de 1969, y el primer mensaje fue enviado el 29 de octubre del mismo año.

Fuente: Charla de Leonard Kleinrock en ICANN Los Angeles, 1/feb/2017

Algunas anécdotas

Aunque en el mismo momento en que se realizan los eventos nadie es consciente de su trascendencia, al ver para atrás e intentar hacer memoria, se encuentran algunas curiosidades que vuelven más humano el relato.

Por ejemplo, Kleinrock señala que, al prepararse para enviar el primer paquete de datos de un punto a otro, entre los primeros dos nodos, los participantes usaron el teléfono para comunicarse y confirmar lo que estaban haciendo. La paradoja es que está tecnología que estaba siendo probada por primera vez eliminaría o reduciría drásticamente el uso del teléfono como herramienta de comunicación. De la conmutación de circuitos nos movíamos a la conmutación de paquetes.

Fuente: Charla de Leonard Kleinrock en ICANN Los Angeles, 1/feb/2017

Los primeros dos nodos de la red, como sabemos, fueron ubicados en la Universidad de California en Los Ángeles y en el laboratorio de investigación de Stanford. Los primeros caracteres enviados fueron L-O, y al tratar de enviar la tercera letra, una G, para continuar digitando la palabra “LOGIN” e ingresar al computador principal de Stanford en una forma remota, este computador tuvo una falla y truncó la comunicación, pero, curiosamente, la falla no fue de las comunicaciones sino del anfitrión al que intentaban entrar.

Todo eso es historia, y quizá muy poca gente esté realmente interesada en conocerla. La necesidad inmediata es que la red funcione, lo haga eficiente y velozmente, a precios accesibles, y nos siga permitiendo hacer todo lo que hoy hacemos en y gracias a ella.

Sin embargo, y aunque pudieron ser otras las personas que lograron este gran avance, lo cierto es que quienes estuvieron ahí supieron perseverar y lograr hacer trabajar lo que será, para siempre, la mayor creación humana para comunicar y vincular al mundo entero.

 

28 de enero: Día de la privacidad de datos

Desde que la información, sobre todo personal y privada, tanto de personas, empresas, gobiernos y organizaciones comenzó a circular y ser almacenada en alguno de los miles de servidores que constituyen lo que recientemente hemos dado por conocer como la nube, también dieron inicio los ataques, robos, alteraciones y eliminaciones de esa misma información.

Esta práctica, considerada nociva e ilegítima, ha sido objeto de debate, legislación, batallas en varios ámbitos, desarrollo de profesiones, tecnologías, reglamentos y políticas, con el fin de proteger los datos y mantener la red segura y como un lugar donde se pueda trabajar y convivir para poder sacar el provecho de sus ventajas, reduciendo el riesgo.

El 28 de enero de cada año es la fecha dedicada a la privacidad y, por extensión, a la protección de datos, sobre todo entendidos como los que se depositan y guardan en algún lugar de la red. Se aprovecha estas efemérides para reflexionar y hacer conciencia en las personas, sobre todo a los más jóvenes, sobre las medidas a tomar para reducir las afrentas contra la privacidad.

Paradójica, o quizá deliberadamente, apenas 3 días antes de esta fecha, el nuevo presidente de los Estados Unidos firmó un decreto para eliminar las protecciones contempladas en la Ley de Privacidad de los EE.UU para cualquier persona que no sea ciudadana de este país.

De acuerdo a un despacho de R3D: Red en Defensa de los Derechos Digitales, la orden ejecutiva “Incrementando la Seguridad Pública al Interior de los Estados Unidos” borra de golpe las protecciones a los datos de millones de ciudadanos extranjeros que circulan diariamente por redes y servidores estadounidenses, además de aquellos que viven en el país norteamericano, pero no que no tienen ese estatus.

“Las agencias deben, hasta una extensión consistente con la ley aplicable, asegurar que sus políticas de privacidad excluyan a personas que no son ciudadanos estadounidenses o residentes permanentes legales de las protecciones de la Ley de Privacidad respecto a la información personal identificable”, se puede leer en la Sección 14 de la orden.

Debido a que cerca del 70 por ciento del tráfico mundial de Internet pasa por los EEUU, la orden de Trump significa la violación del derecho a la privacidad de miles de millones de personas. Esto también implica una problemática acerca de los datos compartidos por los gobiernos de otras naciones con las agencias estadounidenses, o aquellos que son recolectados por las autoridades de dicho país.

Recomendaciones de Internet Society

En el lado positivo, hay muchas organizaciones y naciones en el mundo preocupadas por el tema, y contribuyen de distintas formas para hacer avanzar la conciencia y las medidas, tanto a nivel personal, como técnico, legal, político y diplomático, para mejorar la protección de datos y el derecho a la privacidad.

La Internet Society (ISOC) ha publicado una lista de 10 consejos para contribuir a la protección de los datos de cada uno de nosotros que se hallan en la red:

  1. Conozca el terreno. Internet es una poderosa herramienta de comunicación. Aprenda a usar Internet, mantenga los ojos abiertos para los actores buenos y malos, y aproveche al máximo lo que ofrece Internet.
  2. Mantenga su vida privada privada (valga la redundancia). Mantenga su información personal separada de su rol profesional. Utilice diferentes personas para diferentes funciones.

  1. Proteja las comunicaciones. Utilice cifrado de extremo a extremo y autenticación de dos factores para las comunicaciones confidenciales.
  2. Oculte su ubicación. Elimine los datos de ubicación de las imágenes y videos antes de publicarlos. Desactive el acceso de la aplicación a la ubicación. No revele su ubicación en comunicaciones públicas.
  3. Guarde sus dispositivos. Son más preciosas que cualquier joya. Protéjalos de la manipulación física y digital. Utilice cifrado y credenciales de acceso fuerte.
  4. Prepárese para un ataque. Encuentre aliados y prepare un plan para lidiar con el acoso en línea, “doxing” (búsqueda y publicación de información de alguna persona) y otras formas de abuso. ¡No alimente a los trolls! No merecen su atención.

  1. Manténgase firme. No deje que los agresores cibernéticos socaven lo que está haciendo. Muéstreles que no tiene miedo. Otros estarán con usted. Esté dispuesto a pedir ayuda.
  2. Cuidado con los caballos de Troya. Cuidado con los lanzadores de anzuelos. Compruebe antes de conectar con alguien nuevo. Si algo parece demasiado bueno para ser verdad, probablemente no lo es!
  3. Sea un líder. Comparta su experiencia con otros. Deje a la gente saber que usted está allí para ayudar.
  4. Proteja a los demás. Si aloja contenido generado por el usuario, evite que los usuarios publiquen mensajes despectivos u otros mensajes abusivos. Ayude a eliminar la información personal que se ha expuesto para lastimar a alguien. Denuncie a los infractores.

Gracias por los consejos, Internet Society.

 

Los cuatro conceptos que respaldan la Inteligencia Artificial

La Inteligencia Artificial es una disciplina que ha avanzado mucho en los años recientes, aunque todavía hay más que alcanzar en la jornada hacia la reproducción, usando computadoras, de las funciones del cerebro humano.

Ray Kurzweil es uno de los principales inventores, pensadores y futuristas que, además de reflexionar y escribir acerca de temas sobre tecnología, es empresario y creador de inventos tales como el primer digitalizador de cama plana CCD, el primer reconocedor óptico de caracteres, la primera máquina que convierte la impresión a lenguaje audible para ciegos, el primer sintetizador de texto a lenguaje hablado, el primer sintetizador musical capaz de recrear el gran piano y otros instrumentos, y la primera máquina comercial de reconocimiento de lenguaje hablado con un gran vocabulario.

En su libro “Cómo crear una mente: el secreto del pensamiento humano revelado”, publicado en 2012, presenta una serie de investigaciones, experimentos, reflexiones y conceptos desarrollados por él mismo y otro gran número de pensadores, filósofos e investigadores a lo largo de la historia.

blog417img01

Uno de los temas que toca en el libro se refiere a la fuerza, desarrollo y empuje que han tenido desde hace muchos años los esfuerzos y avances en la computación, primero análoga y después digital, que se han tenido para acercar las capacidades de estas máquinas a las habilidades que el ser humano tiene gracias a la evolución de su cerebro.

Cuatro ideas clave

El concepto de que una computadora de propósito general puede implementar cualquier algoritmo surgió al mismo tiempo que las propias ideas iniciales sobre las máquinas para calcular, y tiene un gran poder para inspirar a los muchos que buscan desarrollar una inteligencia en los computadores que se parezca cada vez más a la humana.

1) La habilidad para comunicarse, recordar y computar información en forma confiable

Las computadoras analógicas representaban las cantidades y los cálculos por medio de distintos niveles de voltaje, y por ello eran propensas a una gran inexactitud en sus cálculos. Las computadoras digitales, en el principio, también adolecían de grandes niveles de imprecisión y error.

El matemático Claude Shannon demostró que es posible lograr el nivel de exactitud que deseemos en la comunicación que usan las computadoras digitales, tanto entre ellas como dentro de sí mismas, entre la unidad principal de procesamiento, la memoria y los demás dispositivos que se conectan a la computadora. Esto se logra por medio de la redundancia.

blog417img02

Las técnicas de detección y corrección de errores pasan totalmente inadvertidas para los usuarios de las computadoras, pero permiten que las máquinas cuenten con las importantes habilidades de comunicación, memoria y procesamiento confiable que disfrutamos todos los días.

2) La universalidad de la computación

Científicos y visionarios como Alan Turing, John von Neumann y Kurt Gödel, por medio de sus trabajos en distintas áreas del saber, plantearon las ideas de que una computadora podría resolver cualquier problema que pudiera ser resuelto.

También probaron que existen muchos problemas que no pueden ser resueltos por ninguna máquina ni ser humano, llegando a la paradójica conclusión de que podemos definir un problema, probar que existe una única solución y saber que esta solución nunca podrá ser encontrada.

El desarrollo de la calculadora llamada “Bombe”, gracias a Turing, y posteriormente la que es posiblemente la primera computadora, llamada “Colossus”, obedecieron en ambos casos a la tarea de descifrar mensajes en clave de los nazi durante la 2ª Guerra Mundial, estableciendo la prueba de la utilidad de estas máquinas computadoras.

3) La arquitectura de la computadora moderna

John von Neumann también tiene el mérito grande de haber plateado la arquitectura de la computadora contemporánea. Conocida como la máquina de von Neumann, y presentada por el autor en un memorándum interno el 30 de junio de 1945 llamado “Primer borrador de un reporte sobre la EDVAC”.

El modelo de von Neumann incluye una Unidad de Procesamiento Central (CPU), donde se realizan las operaciones aritméticas y lógicas; una unidad de memoria, donde se almacenan el programa y los datos; almacenamiento masivo; un contador de programa; y canales de entrada y salida.

blog417img03

La idea de almacenar el conjunto de instrucciones para que la computadora las ejecute, conocido como programa, en la misma memoria, si bien es parte del modelo de von Neumann, se puede también acreditar a Charles Babbage, que en 1837 describió su Máquina Analítica.

4) La inteligencia artificial que puede permitir a una computadora emular un cerebro

Al mismo tiempo, y acompañando la Máquina Analítica, la primera programadora de computadoras en la historia, Ada Lovelace, hija de Byron, coincidió en la importancia del concepto de la universalidad de esta máquina, pero estableció que no sería posible que una computadora (sin usar ese nombre, por supuesto) “pensara” creativamente, y que no podríamos encontrar el algoritmo que hiciera a una computadora emular el cerebro humano.

En 1956, el mismo von Neumann comenzó a preparar una serie de conferencias que daría en la universidad de Yale. Sin embargo, el cáncer impidió que impartiera las charlas y, en forma póstuma, se publicó en 1958 “La computadora y el cerebro” con el contenido de estos manuscritos.

blog417img04

El inmenso mérito de estas reflexiones es que, afirmó von Neumann, hay una equivalencia esencial entre una computadora y el cerebro humano. Esa idea, como horizonte, es lo que continua propiciando que haya cada vez más avances en la investigación y desarrollo de elementos digitales y electrónicos que reproducen, en algunos casos con mejor rendimiento, las funciones que nuestro cerebro ejecuta.

 

La dinámica definición del alcance de la Gobernanza de Internet

De la misma forma en que la tecnología que define, usa y se desarrolla gracias a Internet se renueva y añade nuevas aplicaciones, sistemas y bondades prácticamente a diario, así los temas relacionados y sobre todo, los aspectos de las relaciones humanas afectados por dicha evolución, se amplían y se incluyen más bajo el paraguas de la Gobernanza de Internet.

Aunque no es el único, hay un modelo que utiliza la figura de las canastas bajo la Gobernanza de Internet para analizar en forma sistemática y ordenada la gran variedad creciente de temas que son actualmente sujeto de debate y discusión a nivel mundial.

Para afirmar el punto sobre el dinamismo de estas inquietudes, podemos observar que en algún momento se hablaba de cinco canastas de la Gobernanza de Internet, y en la más reciente edición del libro “Introducción a la Gobernanza de Internet” del autor Juvan Kurbalija se habla de siete canastas.

blog416img01

Se trata de un libro muy completo y recomendable para cualquier persona interesada en comprender no solamente los conceptos relativos a la Gobernanza de Internet, sino también las definiciones básicas de los conceptos asociados a cada una de las así llamadas canastas, así como el estado y la situación del debate en que se encuentran estos temas.

Las siete canastas y sus temas

A continuación la lista de las siete canastas y sus temas vinculados, según esta reciente actualización:

1 La Canasta de Infraestructura

  • La infraestructura de telecomunicaciones
  • Proveedores de acceso a Internet
  • Protocolo de Control de Transmisión/Protocolo de Internet (TCP/IP)
  • El Sistema de Nombres de Dominio
  • Zona raíz y servidores raíz
  • Neutralidad de la red
  • Estándares web y técnicos
  • Informática en la nube
  • La Internet de las cosas
  • Convergencia

2 La Canasta de Seguridad

  • Ciberseguridad
  • Ciberdelincuencia
  • Infraestructura crítica
  • Ciberterrorismo
  • Ciberconflicto y ciberguerra
  • Cifrado
  • Correo no deseado
  • Firmas digitales
  • Seguridad infantil en línea

blog416img02

3 La Canasta Legal

  • Instrumentos legales
  • Jurisdicción
  • Resolución alternativa de conflictos
  • Derechos de propiedad intelectual
  • Derecho de autor
  • Marcas registradas
  • Patentes
  • Derecho laboral
  • Intermediarios

4 La Canasta Económica

  • Comercio electrónico
  • Economía de DATOS de Internet
  • Economía de ACCESO a Internet
  • Tendencias emergentes: Internet de las Cosas, inteligencia artificial, economía colaborativa
  • Banca electrónica, dinero electrónico, y monedas virtuales
  • Protección del consumidor
  • Cargas fiscales

5 La Canasta de Desarrollo

  • Tecnologías digitales y desarrollo: elaboración de políticas
  • ¿De qué manera afectan las TIC el desarrollo de la sociedad?
  • La brecha digital
  • Desarrollo de capacidades

blog416img03

6 La canasta Sociocultural

  • Políticas de contenido
  • Educación en línea
  • Diversidad cultural
  • Multilingüismo
  • Bienes públicos globales

7 La Canasta de Derechos Humanos

  • Derechos humanos fuera de línea vs en línea
  • Tecnología y derechos humanos
  • «Nuevos» derechos humanos gracias a Internet
  • Internet y los derechos humanos existentes
  • La libertad de expresión y el derecho a buscar, recibir, e impartir información
  • Privacidad y protección de datos
  • Los derechos de los niños en el mundo digital
  • Los derechos de las personas con discapacidades
  • El género y los derechos humanos en línea

Como se puede apreciar de la lectura somera de estos temas, cada uno de ellos representa todo un cúmulo importante de posibilidades, opiniones sobre legislar o no hacerlo, debates y experiencias en todo el mundo.

La invitación es a conocer más sobre estos temas, descargando esta edición del libro, y participar en los foros y eventos a nivel local, regional y mundial donde aun se discute la manera más adecuada de tratar cada uno de estos aspectos.

 

 

Balance 2016 de nuestra Sociedad de la Información

Como ya es usual, hacemos un repaso ligero sobre algunos eventos de interés, a nivel nacional e internacional, y que consideramos que durante el año 2016 incidieron en la marcha de nuestra Sociedad salvadoreña de la información y el conocimiento.

blog414img01

En casa

Se inauguró en 2016 la Casa de Internet de El Salvador, siguiendo el modelo de la ubicación homónima para Latinoamérica y el Caribe, localizada en Uruguay. Una de las características más llamativas es el homenaje a las mujeres en tecnología, al nombrar los salones de este recinto tras las mujeres pioneras.

Por 8º año consecutivo se desarrolló en nuestro país, el Día de Internet. Organizado y coordinado por SVNet y Conexión, en compañía de otros colaboradores y patrocinadores, durante más de una semana se llevaron a cabo conferencias, rifas, acceso gratis a Internet en los telecentros Conexión y otros eventos en todo el país.

Como parte de este evento anual, se desarrolló el Congreso Internacional del Día de Internet en nuestro país, también por 8º año.

El 21 de mayo de 2016 se llevó a cabo el 1er Makerthon en El Salvador, logrando reunir a varios grupos de trabajo que, en forma simultánea con grupos en otros países, diseñaron y construyeron prototipos, en esta ocasión, de un estuche para el proyecto Reacción.

El Rally Latinoamericano de Innovación, desarrollado por tercer año entre universidades de Latinoamérica, contó por segundo año consecutivo con la participación de El Salvador. Este año las universidades Francisco Gavidia, Tecnológica, Católica de El Salvador y Gerardo Barrios, sedes San Miguel y Usulután fueron las que representaron a nuestro país.

Por 3er año se llevó a cabo el Festival de Ilustradores Salvadoreños y Terrícolas (FIST), desarrollando talleres de aprendizaje y exposiciones de los trabajos de ilustradores novatos y avanzados.

Un nuevo movimiento de mujeres en tecnología fue lanzado al principio del año 2016, con el nombre de Geek Girls. Esperamos que por medio de ésta y otras iniciativas similares más mujeres ingresen a las carreras y profesiones vinculadas con la tecnología.

La Cámara Salvadoreña de Tecnologías de Información y Comunicaciones, CasaTIC, desarrolló con éxito 3 ferias de empleo especializadas en el sector TIC de la industria. Como parte de este esfuerzo, la gremial lanzó el sitio web TICSZone para fomentar y propiciar el encuentro de empleadores y profesionales y técnicos en busca de empleo.

Otra iniciativa para motivar a las jóvenes a inscribirse en planes de estudio en las áreas de Ciencias, Tecnología, Ingeniería y Matemática, en este caso desde la Universidad Don Bosco, y con el apoyo de USAID, es el Campamento de Ciencias para Chicas.

Se lanzó la publicación de la investigación sobre la historia del Ciberperiodismo en El Salvador y en Iberoamérica, reflejando 20 años de esa labor en un nuevo medio.

El Consejo Internacional para la Ciencia (ICSU) abrió su oficina regional para la región latinoamericana y caribeña en El Salvador, para un período de 5 años.

CasaTIC realizó por 6º año consecutivo el evento GoTIC (Gobierno y Tecnologías de Información y Comunicaciones), contando con una buena participación de funcionarios públicos a cargo de la informática en sus instituciones.

El Capítulo ISOC El Salvador participó, como nodo de audiencia remota en el Intercommunity 2016.

Se inició el tercer año del Proyecto Educación Superior para el Crecimiento Económico, de USAID, ejecutado por RTI, manteniendo el énfasis en la mejora de las capacidades de los docentes y las instituciones de educación superior, y sobre todo la vinculación entre empresas privadas y la academia, y pensando en la sostenibilidad de lo obtenido. El Clúster TIC sumó una universidad adicional al grupo, llegando a 8 instituciones; comenzó su trabajo en la creación de nuevas carreras especializadas y siguió mejorando a docentes y capacidad instalada.

Por primera vez en el país, y con un alto nivel de innovación y creatividad, se realizó el evento San Salvador Innovation Week, con charlas y talleres de nivel mundial. Fue organizado por InnBox y CasaTIC.

En octubre se desarrolló el 2º Encuentro de Open Hardware en El Salvador, con el objetivo de fomentar y conocer las experiencias nacionales en el uso de diseños abiertos de electrónica, mecánica y otras áreas.

Se dio continuidad al Programa de Jóvenes Talentos en TIC, de la Universidad Francisco Gavidia, con el apoyo de SVNet en la forma de becas para estudiantes de bachillerato de todo el país.

Por 9º año consecutivo se realizó la Competencia Nacional de Robótica de la empresa Edge.

Nuevamente se llevó a cabo el Festival Latinoamericano de Instalación de Software Libre FLISOL 2016, del que nuestro país fue parte activa.

También se realizó en el país nuevamente el Space Apps Challenge, con el auspicio de la NASA.

Por 6º año consecutivo, TBox llevó a cabo el certamen de la Copa Kodu, evento y software para desarrollar juegos de vídeo.

La cantidad total de nombres de dominio SV mostró un incremento en 2016, como se aprecia en las siguientes gráfica y tabla, que tienen como fuente a SVNet.

Fuente: SVNet
Fuente: SVNet
Fuente: SVNet
Fuente: SVNet

A nivel internacional

Sin duda, el hecho más relevante a nivel mundial relacionado a Internet y la sociedad del conocimiento, fue la exitosa transición de la supervisión de las funciones de IANA desde el gobierno de los Estados Unidos a ICANN, una organización basada y promotora del modelo de múltiples partes interesadas. Le tomó a la comunidad mundial más de 2 años llegar a una propuesta consistente y aceptable, incluyendo las 3 funciones y áreas de IANA. Esto sucedió el 30 de septiembre de 2016.

Se alertó con mayor énfasis sobre los riesgos de la fragmentación de Internet. Habrá que mantenerse atentos para prevenir que esto ocurra. Como se dice en ICANN, “Un mundo, una Internet”.

Durante 2016, se incrementó la participación de personas de la región latinoamericana y caribeña en los temas relacionados a Internet, ICANN, IANA, a nivel internacional.

El 9o Foro de Gobernanza de Internet de Latinoamérica y el Caribe fue organizado y desarrollado en Costa Rica, con una buena participación de jóvenes y una madurez mayor en el tratamiento de los temas tratados.

Se presentó el Índice de Preparación Cibernética del año, conteniendo un análisis del nivel de preparación de los países para enfrentar amenazas de seguridad informática y desde la red.

El Foro de Gobernanza de Internet, a nivel mundial, se desarrolló en Latinoamérica, específicamente en la ciudad de Guadalajara, México, celebrando 11 años desde que se instituyera, y el primero después de que Naciones Unidas extendiera su mandato.

Por 6º año consecutivo, RedCLARA organizó la reunión latinoamericana de directores de TI de centros de educación superior, TICAL 2016.

 

Como en otros años, si el lector conoce algún otro suceso relevante, por favor háganoslo saber.

¡Seguimos conversando en línea en 2017!

 

 

La apertura y accesibilidad está en el ADN de Internet

El principal concepto que está detrás de todas las sesiones que se desarrollan durante los Foros de Gobernanza de Internet, como el que acaba de concluir, de manera exitosa, en la ciudad de Guadalajara, es la idoneidad del modelo de múltiples partes interesadas (multistakeholder, en inglés) para enfrentar los desafíos que Internet coloca a la vida de las personas, empresas, organizaciones e instituciones.

En efecto, el IGF (Foro de Gobernanza de Internet, por sus siglas en inglés) se realizó este año en México, con la asistencia y participación de más de 2,500 personas de muchos lugares del mundo, de variadas disciplinas y experiencias y, sobre todo, de todos los sectores de la sociedad global que tienen algún interés en la operación y desarrollo de Internet.

blog413img01

Representantes de instituciones académicas, de organizaciones activistas de la sociedad civil, de comunidades técnicas, de empresas privadas y de gobiernos nacionales de muchos países se reunieron en sesiones conjuntas y en igualdad de condiciones y derechos de participación, por onceavo año consecutivo, después de que el año pasado las Naciones Unidas decidieran extender el mandato del grupo organizador del evento por un segundo período de diez años.

Siendo un fenómeno reciente para la humanidad, los miles de promotores de la necesidad y bondad del modelo multiparticipativo continúan promoviendo y logrando mejores resultados en las propuestas de soluciones que admiten y fomentan la participación de todos los interesados e involucrados.

Los principios no son nuevos

Sin embargo, si bien el modelo de múltiples partes interesadas prevalece en los asuntos relacionados con Internet, incluso a pesar de momentos recurrentes en la historia en que alguno de los sectores participantes, sobre todo gobiernos o empresas privadas, logran algún nivel de preponderancia, en el ecosistema de Internet, sus principios son inherentes a esta red.

Desde sus primeros momentos, y como parte de una filosofía de vida y de trabajo, las creaciones tecnológicas que hicieron posible la existencia y desarrollo de todo lo que en la actualidad conocemos como Internet, estaban permeadas por un ambiente de apertura, deseo de compartir y una fuerte tendencia a buscar y facilitar la colaboración.

blog413img02

Uno de los pioneros de Internet, el doctor Steve Crocker, actualmente el presidente de la junta directiva de ICANN (Corporación Internet para Nombres y Números Asignados, por sus siglas en inglés) y creador de los documentos RFC (Solicitud de Comentarios, por sus siglas en inglés), manifestó en su discurso de inauguración del Foro de Gobernanza de Internet 2016, que en los primeros momentos en que la red iba siendo diseñada e instalada, los ingenieros involucrados manifestaban la apertura en al menos tres formas:

  1. Mantenían abierto el código y los diseños de los elementos que producían, pues estaban conscientes que vendrían más aplicaciones que en ese momento ni siquiera eran imaginadas. Para facilitar este proceso que vendría en el futuro el código debía ser accesible.
  2. Igualmente, toda la documentación que se generaba en torno a protocolos, políticas y reglas de operación debía mantenerse disponible para todas las personas que lo quisieran consultar.
  3. El involucramiento y participación de cualquiera que deseara aportar sus conocimientos y experiencia también debía ser facilitada, para lo que se mantendría la puerta abierta.

También en la historia de los Servidores Raíz

En el documento sobre la historia de los servidores Raíz, comentado hace poco, también se hace alusión a los criterios que Jon Postel, otro de los pioneros de Internet, utilizaba para seleccionar los sitios de residencia de los servidores Raíz:

  • Necesidad: La necesidad del servicio de servidor raíz. En ese momento, Europa tenía un operador. A medida Internet se desarrollaba en Europa, otro servidor raíz podría ser útil. Tampoco había servidores raíz en Asia, por lo que un servidor raíz era necesario allí. La herramienta primaria que Postel usó para determinar la necesidad fue el mapa internacional de conectividad de Larry Landweber.
  • Conectividad: El operador potencial debe tener una buena infraestructura (conectividad interna), y con el mundo (conectividad externa).
  • Consenso de la comunidad: El candidato a operador debía demostrar el potencial apoyo de la comunidad atendida.
  • Compromiso de enviar y responder al tráfico sin filtrar. El operador debía ser capaz de responder a cada consulta DNS y enviar respuestas sin filtrar.

blog413img03

Como se puede apreciar, no sólo era necesario la capacidad técnica, sino la proximidad con la comunidad, la apertura y el deseo de compartir, no filtrar y mantener el apoyo de las partes interesadas.

Por estas y otras razones, se puede afirmar que el modelo de múltiples partes interesadas se encuentra en la esencia de Internet, desde sus orígenes. Es nuestro deber mantenerlo así.

 

 

Los 13 servidores raíz de Internet: la última referencia

El 4 de noviembre de 2016, el Comité Asesor del Sistema de Servidores Raíz de ICANN (RSSAC, por sus siglas en inglés) publicó un documento titulado “Reporte sobre la Historia del Sistema de Servidores Raíz”, en el que, en pocas páginas, ofrecen un vistazo integral e histórico sobre el desarrollo del sistema de servidores raíz, conformado en la actualidad por 13 servidores y 12 operadores.

Los Servidores Raíz, (Root Servers), constituyen uno de los elementos clave en la arquitectura de Internet a nivel mundial. Se trata de la última referencia, el sitio donde debe realizarse la consulta de más alto nivel respecto a los nombres de dominio en Internet, de forma que los millones de computadores y dispositivos conectados a Internet puedan descubrir y encontrar las direcciones numéricas donde se hallan los servidores de sitios web, correos electrónicos y otros servicios, a partir de su nombre en caracteres legibles por los seres humanos.

Del reporte: “El Sistema de Nombres de Dominio (DNS) es un sistema globalmente distribuido, coherente, escalable y confiable, que contiene una base de datos dinámica que proporciona un mecanismo de búsqueda para traducir objetos en otros objetos (por ejemplo, nombres de dominio a direcciones IP). Los servidores raíz son la entrada al sistema porque en ausencia de otra información, la resolución para el sistema de nombres de dominio comienza en un servidor raíz”.

blog410img01

Si fueran personas en una comunidad, los Servidores Raíz serían los ancianos consejeros que saben todo lo referente a su ámbito, y se consideran por el resto de la comunidad la referencia y fuente de conocimiento incuestionable.

Los 13 Servidores Raíz

En los primeros años de existencia de Internet, cuando aún no era conocida con ese nombre, la tabla de correspondencias entre números y nombres era plana, pequeña y relativamente estable. Cuando comenzó a crecer, por la cantidad de servidores que se iban conectando, fue necesario crear un sistema que permitiera administrar estas entradas de equivalencias de una forma dinámica, segura y, sobre todo, distribuida, efectiva y eficiente.

Jon Postel y Paul Mockapetris instalaron el primer servidor raíz en 1984, y comenzaron a diseñar y probar el software DNS (Domain Name System). Por medio de una selección realizada por Jon Postel, basada en la capacidad técnica, conectividad, diversidad geográfica y profesionalismo en cada momento, los servidores raíz se fueron estableciendo en forma paulatina.


 

A fines de 1985 había 4 servidores raíz. No tenían los nombres actuales, y los operadores también han cambiado. Los servidores se llamaban SRI-NIC (ubicado en Stanford Research Institute – Network Information Center), ISIB e ISIC (localizados en Information Sciences Institute, en la Universidad del Sur de California) y BRL-AOS (instalado en el Ballistic Research Laboratory del Ejército de Estados Unidos).

En noviembre de 1987 había 7 servidores raíz. El 28 de julio de 1991 se instaló el primer servidor raíz fuera de los Estados Unidos, en Suecia, aunque aun se mantenía el número en 7. En 1995 se contaba con 9 servidores raíz, y en ese año se renombraron los servidores raíz a sus nombres actuales, yendo desde el A.ROOT-SERVERS.NET al I.ROOT-SERVERS.NET.

Solamente 13 servidores para todo Internet

La razón de que solamente se considere 13 servidores raíz es una cuestión de diseño y capacidad técnica del momento en que se establecieron estos servidores adicionales. En ese entonces, el tamaño máximo del paquete que se podía transmitir dejaba un espacio utilizable de 512 bytes.

Para asegurar que la respuesta a cada solicitud de DNS hecha por cualquier computador en el mundo contuviera los datos, nombre y dirección IP de todos los servidores raíz, y cupiera en ese espacio máximo, había que calcular cuál era el máximo número de servidores raíz que se podía tener.

Había que descontar el tamaño del encabezado de un paquete de DNS (12 bytes), el espacio para la interrogación (5 bytes) y la primera respuesta (31 bytes), lo que suma 48 bytes. Para cada subsecuente respuesta, se requieren 31 bytes por cada conjunto de datos de cada servidor raíz a ser enviado. Por tanto, al usar 13 servidores raíz, se tiene un total de 403 bytes. Entonces, 48 + 403 dan un total de 451 bytes. Si bien habría sido posible incluir un servidor 14 (31 bytes más, 482 bytes total), sobrando 30 bytes, los diseñadores optaron por dejar espacio para futuras expansiones. De ahí que el número acordado de servidores raíz se volvió 13.

Sin embargo, en la actualidad, usando la tecnología de Anycast, gracias a la cual varios equipos servidores pueden compartir la misma dirección IP, existen varias instancias de algunos de los servidores raíz, como se muestra en www.root-servers.org y en la siguiente tabla, que muestra cuántas veces se encuentra en el mundo cada uno de los Servidores Raíz. En El Salvador tenemos una instancia del servidor L.

blog410img02

 

 

T-Hub: centro de fomento del emprendimiento en India

En la ciudad de Hyderabad, India, se encuentra ubicado un centro que fomenta la creación de nuevas empresas de base tecnológica, que el 12 de noviembre de 2016 celebró su primer año de operaciones. Su nombre es T-Hub, y se trata de una iniciativa público privada, diseñada para recibir empresas en formación, compuestas de grupos de jóvenes estudiantes y graduados de las escuelas de ingeniería de India.

De su sitio web: “T-Hub es una asociación pública / privada única entre el gobierno de Telangana (el estado donde se encuentra la ciudad de Hyderabad), 3 de los principales institutos académicos de la India (IIIT-H, ISB & NALSAR) y líderes clave del sector privado. Se encuentra en la intersección de los sectores de “start-up”, académico, empresarial, investigación y gobiernos.

blog409img01

Es un edificio de seis plantas, completamente diseñado y construido para albergar a empresas en formación, iniciando, o en alguna etapa de crecimiento. Cuenta con el patrocinio y acompañamiento permanente y sistemático de importantes empresas de tecnología a nivel mundial.

blog409img02

La visión

Al momento de cumplir su primer año de existencia, esta incubadora tiene más de 215 empresas actualmente en alguna fase de desarrollo, proveyéndoles servicios legales, clericales, espacio, energía, mobiliario y más, por pagos mensuales de $90 en promedio.

Su visión está definida en su sitio web:

T-Hub está diseñado para empresas emergentes relacionadas con la tecnología y su misión es catalizar la creación de una de las comunidades empresariales más cohesionadas y vibrantes del mundo con el fin de fomentar y alimentar más historias de éxito en la India. Lo haremos de la siguiente manera:

  • Atraer a las mejores start-ups y organizaciones empresariales de todo el mundo a Hyderabad.
  • Trabajar con una extensa red de socios para ayudar a los emprendedores a lanzar y escalar empresas innovadoras.
  • Equipar a los innovadores y organizaciones con las habilidades empresariales necesarias para tener éxito, utilizando metodologías que trascienden el aprendizaje tradicional.
  • Vincular, educar y promover a todas las partes interesadas en el espíritu empresarial en Hyderabad y Telangana, incluidas las empresas en fase de creación, los inversores, las incubadoras y los aceleradores, los centros de investigación, los recursos de puesta en marcha, etc. con el fin de facilitar conexiones más rápidas entre talento, ideas y capital.

blog409img03

Un ambiente propicio

Además de los espacios, convivencia y productividad, T-Hub ofrece actividades relacionadas, como charlas, hackatones, clases y salones adecuados para llevar a cabo sesiones de planeación, discusión, presentación de productos y otras facilidades. Además, está vinculado a la Escuela de Negocios de India, ubicada a poca distancia.

El diseño del interior del edificio es adecuado a los jóvenes y se encuentran abundantes mensajes motivadores en las paredes y otros espacios idóneos.

blog409img04

La iniciativa y labor de este centro de fomento, incubación, aceleramiento, espacio de coworking y punto de encuentro entre las empresas privadas, los inversionistas, la academia, y los jóvenes emprendedores, deseosos de trabajar y desarrollar las próximas aplicaciones, servicios y productos para el mercado mundial es, por supuesto, digna de emular.

Los países latinoamericanos tiene mucho talento joven, tal como la India, pero es importante, imprescindible y urgente que los sectores privado, público y académico de cada uno de estas naciones coordinen sus ideas, esfuerzos y recursos para contar con espacios como el de T-Hub.

 

Las tres eras de la Gobernanza de Internet

Como en un juego de tenis, en el que la pelota continuamente va de un lado a otro de la cancha, o en el de las bolas que rebotan y oscilan constantemente, las discusiones y posiciones de los muchos actores involucrados en las definiciones del tratamiento que deben tener las conductas en el ciberespacio se han venido fortaleciendo y, a veces, inclinándose hacia un esquema u otro de gobernanza de Internet.

blog407img01

De acuerdo a lo planteado por un grupo de investigadores de la Universidad de Carolina del Norte, en un artículo llamado “iGovernance: The future of Multistakeholder Internet Governance in the wake of the Apple encryption saga”, los autores hacen un recuento breve de las tres eras o fases que, hasta la fecha, la disposición hacia la gobernanza de Internet ha tenido, señalando fechas y sucesos específicos que marcan estas tres fases.

Algunos analistas, no necesariamente activos en el mundo de la tecnología, anticipan que el nivel de involucramiento de los estados en la dirección, administración y regulación de lo que ocurre en Internet será una de las principales áreas de debate y discusión en los próximos años.

Observando los acontecimientos recientes a nivel mundial, sobre todo en aspectos de ciberseguridad, y el nivel cada vez mayor de dependencia de la tecnología digital y de telecomunicaciones, no es difícil aceptar esa premisa.

La primera era: el silencioso surgimiento de Internet

Tipificado como un período de desarrollo silencioso, positivo, entusiasta y creciente de Internet en la mayor parte de países en el mundo, este período se ubica desde 1970 hasta 1998. La conceptualización, el diseño y la puesta en producción de la tecnología de comunicaciones llamada basada en los protocolos TCP/IP (1970) se desarrolló y propagó desde abajo hacia arriba, sin que hubiera necesidad de pedir permiso ni pagar alguna franquicia o licencia.

En esos años, muchos países de Latinoamérica y otros en el mundo, por iniciativas de unos pocos pioneros en cada lugar, gestionaron independientemente, de una forma abierta, cándida y con una visión nacionalista de desarrollo tecnológico y social, los recursos tecnológicos necesarios para conectar a sus países a la nueva red en evolución.

blog407img02

En 1998, el hito que marca la definición de esta era es la creación de la Corporación Internet para los Nombres y Números Asignados (ICANN), concebida para administrar y coordinar la gestión y operación, a un alto nivel, de los servicios de resolución de nombres de dominio, las direcciones IP y los protocolos utilizados en Internet.

La segunda era: la Gobernanza de Internet

Desde el principio, los aspectos tecnológicos eran los más sencillos de administrar, en comparación con los demás elementos que comenzaban a surgir en Internet. Esta fase se dice ir desde 1998 hasta 2006, año en que Naciones Unidas crea el grupo de Gobernanza de Internet, y el Foro de Gobernanza de Internet, dándole vida y recursos por 10 años.

blog407img03

El surgimiento con un claro mandato de este movimiento mundial reconocía explícitamente que era necesario e importante destinar recursos, tiempo y sobre todo, pensamiento y discusión, a otros temas más allá de la base tecnológica de Internet.

Lo más relevante acá fue la apertura a toda la sociedad, no solamente a los gobiernos, para que discutieran y, si era posible, definieran, cómo deberían tratarse los temas más preocupantes que sucedían en Internet. El modelo de múltiples partes interesadas cobró fuerza sobre el tradicionalista enfoque del rol protagónico de los gobiernos, aun perseguido por regímenes menos abiertos, como los de Rusia y China.

La tercera era: los gobiernos deben encontrar su rol

Comenzando en 2000, traslapándose con la segunda era, el tercer período abarca la reunión plenipotenciaria de WCIT en 2012, las revelaciones hechas por Edward Snowden, los reclamos de la presidenta de Brasil ante Naciones Unidas por la cibervigilancia realizada por los países más poderosos, la celebración del evento NetMundial en Sao Paulo, y la terminación del contrato entre NTIA e ICANN en septiembre de 2016, terminando con el vestigio remanente de la injerencia del gobierno de un país sobre las funciones técnicas de Internet.

blog407img04

Se anticipa que el rol del sector privado seguirá cobrando predominancia, buscando obviamente sus propios intereses empresariales y de generación de beneficios. Sin embargo, también los demás sectores, la academia, sociedad civil, comunidad técnica y los mismos gobiernos, seguirán buscando una mejor posición para hacer sentir y valer sus propios intereses y la visión que, en muchos casos, consideran genuinamente como la mejor para sus conciudadanos.

El vaivén y los argumentos continuarán fluyendo, y aunque cada país y región tiene la autonomía para tomar sus propias decisiones basadas en su dinámica interna, la inexistencia práctica de fronteras en el ciberespacio agrega un elemento de jurisdicción y conciliación de visiones que nunca antes en la historia de la humanidad había sido tan palpable y evidente.