Archivo de la categoría: Cosecha de la experiencia

La Máquina se detiene

Estamos estrenando un nuevo año, recién salido de la fuente que produce en forma continua e interminable el paso del tiempo. Obtenemos doce meses sin usar cada inicio de año, y algunos de los eventos en esos días por venir dependen total o parcialmente de lo que hagamos, y sobre todo, de con qué actitud veamos el futuro.

Tanto a nivel personal como en el conglomerado de cada país y, en última instancia, de la humanidad, el avance o retroceso que experimentamos con el paso del tiempo se debe a lo que, colectivamente, hacemos a favor o en contra de nuestra propia raza y las demás especies que nos acompañan en este planeta.

blog415img01

En materia de ciencia y tecnología, sin duda la humanidad seguirá desarrollando cada vez más dispositivos, principios y métodos para hacer más fáciles nuestras tareas, o mejorar nuestro nivel de vida, o para realizar acciones de dudosa calificación o incluso dañinas para nosotros mismos, como seres humanos.

La relación de la tecnología con nosotros, los humanos, será siempre un motivo constante de análisis y reflexión, buscando encontrar siempre la justa medida entre la dependencia absoluta de los apoyos y soportes basados en la tecnología y la no utilización de la misma. Este tema es más fácil de visualizar y considerar al pensar en el uso que hacemos del teléfono móvil, las tablets, laptops y computadoras de escritorio, y el nivel de dependencia que tenemos de las mismas.

Una visión anticipada

En 1909, cuarenta años antes de que George Orwell publicara su famosa novela “1984”, de la que surgen conceptos utilizados recientemente, como el del Gran Hermano, que vigila y sabe absolutamente todo sobre nosotros mismos, Edward Morgan Forster, novelista inglés, autor de “Un pasaje a la India” y “Un cuarto con una vista”, escribió un breve cuento de ciencia ficción llamado “La Máquina se detiene” (“The Machine stops”).

blog415img02

Tan temprano como a principios del siglo XX, incluso antes de la primera guerra mundial y tantos desarrollos, positivos y negativos, que nos dejó dicha centuria, Forster visualizó un futuro para la humanidad que nos advertía desde ese entonces acerca de los riesgos que conlleva una dependencia extrema de la tecnología.

El relato nos presenta una humanidad que vivía bajo la tierra, y que no necesitaba realizar ningún esfuerzo, pues la Máquina, así, escrito con mayúscula, es la entidad que se encarga de todas nuestras necesidades humanas, tanto fisiológicas como espirituales y de comunicación.

Los personajes centrales, madre e hijo, viven separados por muchos kilómetros, y normalmente no necesitan ni quieren verse, pues cuentan con las pantallas y medios de comunicación, que en el presente llamamos digitales, para mantener su relación.

Una advertencia clara

Como sería de esperar, la narración nos conduce hacia una “anormalidad”, cuando el hijo, Kuno, desobedece las reglas habituales, y salvando algunos obstáculos, se asoma a la superficie del planeta, y descubre a algunos disidentes, sembrando la duda en él, que a su vez lo comenta con su madre, una convencida de las bondades de vivir bajo la protección y cuidado de la casi divina Máquina.

El problema se da cuando la Máquina, misteriosamente, deja de realizar sus funciones de soporte y apoyo a todos los seres humanos de la tierra. La dependencia excesiva y total por parte de los avanzados habitantes del subsuelo terrícola de la tecnología que la Máquina representa y provee, se vuelve en su contra cuando ésta se detiene.

El corto libro, de fácil lectura, nos advierte, de una forma suave pero firme, que debemos mantener un poco de independencia de la tecnología que nos rodea, sin que eso nos convierta en enemigos de la misma.

blog415img03

A la par de los propósitos para adelgazar, ser mejor persona, estudiar más y realizar esas actividades que tanto hemos postergado, podemos incluir en la lista de año nuevo revisar nuestra relación con la tecnología y, cuando menos, comunicarnos con nuestros seres queridos en formas personales y directas, sin la intermediación de un dispositivo móvil, así como poner a un lado cualquier dispositivo al estar frente a otra persona.

¡Mucha felicidad, desarrollo y progreso para 2017!

 

 

Balance 2016 de nuestra Sociedad de la Información

Como ya es usual, hacemos un repaso ligero sobre algunos eventos de interés, a nivel nacional e internacional, y que consideramos que durante el año 2016 incidieron en la marcha de nuestra Sociedad salvadoreña de la información y el conocimiento.

blog414img01

En casa

Se inauguró en 2016 la Casa de Internet de El Salvador, siguiendo el modelo de la ubicación homónima para Latinoamérica y el Caribe, localizada en Uruguay. Una de las características más llamativas es el homenaje a las mujeres en tecnología, al nombrar los salones de este recinto tras las mujeres pioneras.

Por 8º año consecutivo se desarrolló en nuestro país, el Día de Internet. Organizado y coordinado por SVNet y Conexión, en compañía de otros colaboradores y patrocinadores, durante más de una semana se llevaron a cabo conferencias, rifas, acceso gratis a Internet en los telecentros Conexión y otros eventos en todo el país.

Como parte de este evento anual, se desarrolló el Congreso Internacional del Día de Internet en nuestro país, también por 8º año.

El 21 de mayo de 2016 se llevó a cabo el 1er Makerthon en El Salvador, logrando reunir a varios grupos de trabajo que, en forma simultánea con grupos en otros países, diseñaron y construyeron prototipos, en esta ocasión, de un estuche para el proyecto Reacción.

El Rally Latinoamericano de Innovación, desarrollado por tercer año entre universidades de Latinoamérica, contó por segundo año consecutivo con la participación de El Salvador. Este año las universidades Francisco Gavidia, Tecnológica, Católica de El Salvador y Gerardo Barrios, sedes San Miguel y Usulután fueron las que representaron a nuestro país.

Por 3er año se llevó a cabo el Festival de Ilustradores Salvadoreños y Terrícolas (FIST), desarrollando talleres de aprendizaje y exposiciones de los trabajos de ilustradores novatos y avanzados.

Un nuevo movimiento de mujeres en tecnología fue lanzado al principio del año 2016, con el nombre de Geek Girls. Esperamos que por medio de ésta y otras iniciativas similares más mujeres ingresen a las carreras y profesiones vinculadas con la tecnología.

La Cámara Salvadoreña de Tecnologías de Información y Comunicaciones, CasaTIC, desarrolló con éxito 3 ferias de empleo especializadas en el sector TIC de la industria. Como parte de este esfuerzo, la gremial lanzó el sitio web TICSZone para fomentar y propiciar el encuentro de empleadores y profesionales y técnicos en busca de empleo.

Otra iniciativa para motivar a las jóvenes a inscribirse en planes de estudio en las áreas de Ciencias, Tecnología, Ingeniería y Matemática, en este caso desde la Universidad Don Bosco, y con el apoyo de USAID, es el Campamento de Ciencias para Chicas.

Se lanzó la publicación de la investigación sobre la historia del Ciberperiodismo en El Salvador y en Iberoamérica, reflejando 20 años de esa labor en un nuevo medio.

El Consejo Internacional para la Ciencia (ICSU) abrió su oficina regional para la región latinoamericana y caribeña en El Salvador, para un período de 5 años.

CasaTIC realizó por 6º año consecutivo el evento GoTIC (Gobierno y Tecnologías de Información y Comunicaciones), contando con una buena participación de funcionarios públicos a cargo de la informática en sus instituciones.

El Capítulo ISOC El Salvador participó, como nodo de audiencia remota en el Intercommunity 2016.

Se inició el tercer año del Proyecto Educación Superior para el Crecimiento Económico, de USAID, ejecutado por RTI, manteniendo el énfasis en la mejora de las capacidades de los docentes y las instituciones de educación superior, y sobre todo la vinculación entre empresas privadas y la academia, y pensando en la sostenibilidad de lo obtenido. El Clúster TIC sumó una universidad adicional al grupo, llegando a 8 instituciones; comenzó su trabajo en la creación de nuevas carreras especializadas y siguió mejorando a docentes y capacidad instalada.

Por primera vez en el país, y con un alto nivel de innovación y creatividad, se realizó el evento San Salvador Innovation Week, con charlas y talleres de nivel mundial. Fue organizado por InnBox y CasaTIC.

En octubre se desarrolló el 2º Encuentro de Open Hardware en El Salvador, con el objetivo de fomentar y conocer las experiencias nacionales en el uso de diseños abiertos de electrónica, mecánica y otras áreas.

Se dio continuidad al Programa de Jóvenes Talentos en TIC, de la Universidad Francisco Gavidia, con el apoyo de SVNet en la forma de becas para estudiantes de bachillerato de todo el país.

Por 9º año consecutivo se realizó la Competencia Nacional de Robótica de la empresa Edge.

Nuevamente se llevó a cabo el Festival Latinoamericano de Instalación de Software Libre FLISOL 2016, del que nuestro país fue parte activa.

También se realizó en el país nuevamente el Space Apps Challenge, con el auspicio de la NASA.

Por 6º año consecutivo, TBox llevó a cabo el certamen de la Copa Kodu, evento y software para desarrollar juegos de vídeo.

La cantidad total de nombres de dominio SV mostró un incremento en 2016, como se aprecia en las siguientes gráfica y tabla, que tienen como fuente a SVNet.

Fuente: SVNet
Fuente: SVNet
Fuente: SVNet
Fuente: SVNet

A nivel internacional

Sin duda, el hecho más relevante a nivel mundial relacionado a Internet y la sociedad del conocimiento, fue la exitosa transición de la supervisión de las funciones de IANA desde el gobierno de los Estados Unidos a ICANN, una organización basada y promotora del modelo de múltiples partes interesadas. Le tomó a la comunidad mundial más de 2 años llegar a una propuesta consistente y aceptable, incluyendo las 3 funciones y áreas de IANA. Esto sucedió el 30 de septiembre de 2016.

Se alertó con mayor énfasis sobre los riesgos de la fragmentación de Internet. Habrá que mantenerse atentos para prevenir que esto ocurra. Como se dice en ICANN, “Un mundo, una Internet”.

Durante 2016, se incrementó la participación de personas de la región latinoamericana y caribeña en los temas relacionados a Internet, ICANN, IANA, a nivel internacional.

El 9o Foro de Gobernanza de Internet de Latinoamérica y el Caribe fue organizado y desarrollado en Costa Rica, con una buena participación de jóvenes y una madurez mayor en el tratamiento de los temas tratados.

Se presentó el Índice de Preparación Cibernética del año, conteniendo un análisis del nivel de preparación de los países para enfrentar amenazas de seguridad informática y desde la red.

El Foro de Gobernanza de Internet, a nivel mundial, se desarrolló en Latinoamérica, específicamente en la ciudad de Guadalajara, México, celebrando 11 años desde que se instituyera, y el primero después de que Naciones Unidas extendiera su mandato.

Por 6º año consecutivo, RedCLARA organizó la reunión latinoamericana de directores de TI de centros de educación superior, TICAL 2016.

 

Como en otros años, si el lector conoce algún otro suceso relevante, por favor háganoslo saber.

¡Seguimos conversando en línea en 2017!

 

 

La apertura y accesibilidad está en el ADN de Internet

El principal concepto que está detrás de todas las sesiones que se desarrollan durante los Foros de Gobernanza de Internet, como el que acaba de concluir, de manera exitosa, en la ciudad de Guadalajara, es la idoneidad del modelo de múltiples partes interesadas (multistakeholder, en inglés) para enfrentar los desafíos que Internet coloca a la vida de las personas, empresas, organizaciones e instituciones.

En efecto, el IGF (Foro de Gobernanza de Internet, por sus siglas en inglés) se realizó este año en México, con la asistencia y participación de más de 2,500 personas de muchos lugares del mundo, de variadas disciplinas y experiencias y, sobre todo, de todos los sectores de la sociedad global que tienen algún interés en la operación y desarrollo de Internet.

blog413img01

Representantes de instituciones académicas, de organizaciones activistas de la sociedad civil, de comunidades técnicas, de empresas privadas y de gobiernos nacionales de muchos países se reunieron en sesiones conjuntas y en igualdad de condiciones y derechos de participación, por onceavo año consecutivo, después de que el año pasado las Naciones Unidas decidieran extender el mandato del grupo organizador del evento por un segundo período de diez años.

Siendo un fenómeno reciente para la humanidad, los miles de promotores de la necesidad y bondad del modelo multiparticipativo continúan promoviendo y logrando mejores resultados en las propuestas de soluciones que admiten y fomentan la participación de todos los interesados e involucrados.

Los principios no son nuevos

Sin embargo, si bien el modelo de múltiples partes interesadas prevalece en los asuntos relacionados con Internet, incluso a pesar de momentos recurrentes en la historia en que alguno de los sectores participantes, sobre todo gobiernos o empresas privadas, logran algún nivel de preponderancia, en el ecosistema de Internet, sus principios son inherentes a esta red.

Desde sus primeros momentos, y como parte de una filosofía de vida y de trabajo, las creaciones tecnológicas que hicieron posible la existencia y desarrollo de todo lo que en la actualidad conocemos como Internet, estaban permeadas por un ambiente de apertura, deseo de compartir y una fuerte tendencia a buscar y facilitar la colaboración.

blog413img02

Uno de los pioneros de Internet, el doctor Steve Crocker, actualmente el presidente de la junta directiva de ICANN (Corporación Internet para Nombres y Números Asignados, por sus siglas en inglés) y creador de los documentos RFC (Solicitud de Comentarios, por sus siglas en inglés), manifestó en su discurso de inauguración del Foro de Gobernanza de Internet 2016, que en los primeros momentos en que la red iba siendo diseñada e instalada, los ingenieros involucrados manifestaban la apertura en al menos tres formas:

  1. Mantenían abierto el código y los diseños de los elementos que producían, pues estaban conscientes que vendrían más aplicaciones que en ese momento ni siquiera eran imaginadas. Para facilitar este proceso que vendría en el futuro el código debía ser accesible.
  2. Igualmente, toda la documentación que se generaba en torno a protocolos, políticas y reglas de operación debía mantenerse disponible para todas las personas que lo quisieran consultar.
  3. El involucramiento y participación de cualquiera que deseara aportar sus conocimientos y experiencia también debía ser facilitada, para lo que se mantendría la puerta abierta.

También en la historia de los Servidores Raíz

En el documento sobre la historia de los servidores Raíz, comentado hace poco, también se hace alusión a los criterios que Jon Postel, otro de los pioneros de Internet, utilizaba para seleccionar los sitios de residencia de los servidores Raíz:

  • Necesidad: La necesidad del servicio de servidor raíz. En ese momento, Europa tenía un operador. A medida Internet se desarrollaba en Europa, otro servidor raíz podría ser útil. Tampoco había servidores raíz en Asia, por lo que un servidor raíz era necesario allí. La herramienta primaria que Postel usó para determinar la necesidad fue el mapa internacional de conectividad de Larry Landweber.
  • Conectividad: El operador potencial debe tener una buena infraestructura (conectividad interna), y con el mundo (conectividad externa).
  • Consenso de la comunidad: El candidato a operador debía demostrar el potencial apoyo de la comunidad atendida.
  • Compromiso de enviar y responder al tráfico sin filtrar. El operador debía ser capaz de responder a cada consulta DNS y enviar respuestas sin filtrar.

blog413img03

Como se puede apreciar, no sólo era necesario la capacidad técnica, sino la proximidad con la comunidad, la apertura y el deseo de compartir, no filtrar y mantener el apoyo de las partes interesadas.

Por estas y otras razones, se puede afirmar que el modelo de múltiples partes interesadas se encuentra en la esencia de Internet, desde sus orígenes. Es nuestro deber mantenerlo así.

 

 

La App que no fue en tu año, que no te haga daño

Con frecuencia nos vemos en medio de una conversación acerca de los mejores y últimos modelos de teléfonos móviles. Que si ya vieron lo que trae el modelo Zek de la compañía Ultracom, o la versión 15 del celular Mot del gigante de las telecomunicaciones Rapfur? Que esta nueva versión es más resistente a las fuertes nevadas que caen en El Salvador, y a los calores intensos que se viven en el Polo Norte, y muchos más comentarios similares.

Innegablemente, las ventajas de todo tipo en el hardware, sistema operativo, tamaño, prestaciones, duración de batería, conectividad, planes de uso, formas, resistencias, apariencia estética y precio, son cada vez mayores, y existe una fiera competencia a nivel mundial por fabricar y poner en el mercado en el menor tiempo posible, el próximo dispositivo que provocará este tipo de conversaciones.

Se trata de un mercado multimillonario mundial, pues no solamente participan en el mismo  las personas que no han tenido un móvil inteligente y quieren hacerse de uno, sino los que regularmente cambian de aparato cada cierto tiempo, pero sobre todo, los “locos-tecnología” que necesitan estar al día con lo último, son el mercado objeto de esta amplísima gama de posibilidades.

blog412img01

Acompañando esta oferta también está la de todos los accesorios, aditamentos, y “gadgets” que se pueden agregar, conectar o usar con el aparato en cuestión: cables, cargadores, accesorios manos libres, adaptadores, cabezales de realidad virtual, estuches, colgantes, etc. Todos los propietarios de uno o más de los modelos de teléfono son potenciales compradores de estos componentes extra.

Las aplicaciones son un enorme valor agregado

Otra industria multimillonaria que se desarrolla en paralelo a la anterior es la de las aplicaciones que se pueden ejecutar en los dispositivos móviles. La oferta en este campo es aún mayor, pues las barreras de entrada para los productores de aplicaciones son prácticamente nulas. Es muy sencillo obtener las herramientas mínimas para diseñar, desarrollar y producir aplicaciones para dichos aparatos.

Desde jóvenes emprendedores con ideas agresivas y creativas sobre necesidades insatisfechas de la población, hasta empresas gigantes mundiales que ya cuentan con un importante historial en la comercialización de aplicaciones para móviles, todos entran a acrecentar la oferta mundial que existe en este campo.

blog412img02

De nuevo, es posible que los usuarios regulares de los móviles se conviertan en usuarios y compradores (o descargadores, si son gratis) compulsivos de las últimas aplicaciones que existen para su respectivo dispositivo, solamente porque la escuchó mencionar en una conversación casual entre amigos.

Bien usadas, y con la capacidad cada vez mayor de los dispositivos, estas aplicaciones aportan un apoyo importante a la efectividad y eficiencia de cada persona. El problema, como en todo, es cuando esto se convierte en adicción.

El mundo continuará girando sin esa aplicación

Como en general con el uso de la tecnología, la humanidad aun está en el proceso de encontrar un adecuado balance entre el uso apropiado y la compulsión para no despegarse en ningún momento de los celulares.

No pasará nada trascendental si no llegamos a conocer o utilizar la aplicación que más está siendo descargada en estos días de los sitios de descarga, gratis o pagada. Hay muchas aplicaciones muy interesantes, creativas, útiles y casi para todas las necesidades que se nos puedan ocurrir, reales o creadas.

blog412img03

Esta gran tentación de descargar y usar alguna aplicación termina usando mucha de la memoria disponible en el pequeño dispositivo que las recibe, por lo que, para contar con más espacio para los demás datos que se tienen en el móvil, hay que aplicar algún criterio de selección.

Mantenerse enterados de lo que hay en el mercado y las posibilidades que ofrece a cada uno de nosotros es bueno. A esa información hay que aplicarle el criterio propio de utilidad personal, para que realmente sea productivo y provechoso, y no solamente un consumo innecesario y superfluo de nuestro tiempo, capacidad y espacio de memoria en los dispositivos.

TICSZone: La bolsa de trabajo de CasaTIC para empleos en Informática

La industria de servicios y productos en el campo de las tecnologías de información y comunicaciones incluye en la actualidad una gran cantidad y variedad de empleos, ocupaciones, profesiones y especialidades.

Entre algunas de éstas se pueden enumerar el desarrollo de aplicaciones, la administración de bases de datos, la gestión de redes, la seguridad informática, medición de desempeño, prueba de aplicaciones, control de calidad, atención al usuario, y muchas más, en número cada vez más creciente.

Las empresas dedicadas a la producción, servicio y venta de dispositivos y soluciones integrales que están basadas en la aplicación de las tecnologías relacionadas con el tratamiento digital de datos y la información, en todas sus formas, tienen muchas posibilidades de desarrollar soluciones exitosas y comercializables, y por tanto, bien administradas, son empresas que pueden crecer y tener necesidad de más personal capacitado.

post-invitacion

Para poner en contacto a estas empresas e instituciones que requieren servicios especializados en el área de las TIC, con los jóvenes estudiantes, egresados y graduados de las diversas carreras y especializaciones que se sirven en el país, la Cámara Salvadoreña de Tecnologías de Información y Comunicaciones (CasaTIC) ha puesto al servicio de la comunidad la plataforma de empleos llamada TICSZone (www.ticszone.com).

Una plataforma especializada

El sitio ha sido desarrollado expresamente para CasaTIC, y ha acompañado las ferias de empleo que esta gremial de las empresas de tecnologías de información ha organizado y ejecutado, con un buen nivel de convocatoria, en los meses recientes.

Aunque hay más puntos de encuentro entre empleadores y personas que buscan un empleo, en formato digital, desde hace varios años, esta propuesta busca ser especializada exclusivamente en los muchos y variados campos que estas tecnologías ofrecen.

blog411img01

Es una plataforma sencilla, donde tanto empleadores como candidatos pueden ingresar los detalles de su demanda o su oferta, respectivamente, con la idea de identificar y encontrar una posibilidad que acerque a las competencias requeridas con las ofrecidas, llegando a completar la contratación respectiva de una o más personas.

Se trata de una plataforma interactiva, con nuevas oportunidades laborales en tecnología de información y comunicación, dirigida a jóvenes estudiantes, egresados o profesionales que buscan crecer en el sector.

Algunas áreas de TICSZone

Para acompañar el propósito principal de la plataforma, también se han incluido espacios para mantener un blog, así como la posibilidad de que las empresas y los candidatos creen su perfil para permitir que los conozcan mejor.

blog411img02

Por supuesto, la creación y publicación de ofertas de empleo es uno de los espacios principales. Se cuenta con la posibilidad de aplicar directamente a una plaza, o participar en las tareas de reclutamiento.

La plataforma de búsqueda y solicitud de empleos y plazas en el sector TIC de El Salvador auspiciada por CasaTIC ha sido desarrollada por Tadeo Systems, y aunque es de muy reciente creación, ya cuenta con el apoyo de varias empresas y universidades, sobre todo miembros de CasaTIC.

blog411img03

La idea y objetivo es que la información recabada en la plataforma sea cada vez más amplia y diversa, y se convierta en un punto de referencia para estudiantes y profesionales, por un lado, y para empresas, organizaciones e instituciones de todos los sectores que necesiten personal en el área de las TICS con experiencia, formación y competencias en áreas específicas de las TIC.

 

Los 13 servidores raíz de Internet: la última referencia

El 4 de noviembre de 2016, el Comité Asesor del Sistema de Servidores Raíz de ICANN (RSSAC, por sus siglas en inglés) publicó un documento titulado “Reporte sobre la Historia del Sistema de Servidores Raíz”, en el que, en pocas páginas, ofrecen un vistazo integral e histórico sobre el desarrollo del sistema de servidores raíz, conformado en la actualidad por 13 servidores y 12 operadores.

Los Servidores Raíz, (Root Servers), constituyen uno de los elementos clave en la arquitectura de Internet a nivel mundial. Se trata de la última referencia, el sitio donde debe realizarse la consulta de más alto nivel respecto a los nombres de dominio en Internet, de forma que los millones de computadores y dispositivos conectados a Internet puedan descubrir y encontrar las direcciones numéricas donde se hallan los servidores de sitios web, correos electrónicos y otros servicios, a partir de su nombre en caracteres legibles por los seres humanos.

Del reporte: “El Sistema de Nombres de Dominio (DNS) es un sistema globalmente distribuido, coherente, escalable y confiable, que contiene una base de datos dinámica que proporciona un mecanismo de búsqueda para traducir objetos en otros objetos (por ejemplo, nombres de dominio a direcciones IP). Los servidores raíz son la entrada al sistema porque en ausencia de otra información, la resolución para el sistema de nombres de dominio comienza en un servidor raíz”.

blog410img01

Si fueran personas en una comunidad, los Servidores Raíz serían los ancianos consejeros que saben todo lo referente a su ámbito, y se consideran por el resto de la comunidad la referencia y fuente de conocimiento incuestionable.

Los 13 Servidores Raíz

En los primeros años de existencia de Internet, cuando aún no era conocida con ese nombre, la tabla de correspondencias entre números y nombres era plana, pequeña y relativamente estable. Cuando comenzó a crecer, por la cantidad de servidores que se iban conectando, fue necesario crear un sistema que permitiera administrar estas entradas de equivalencias de una forma dinámica, segura y, sobre todo, distribuida, efectiva y eficiente.

Jon Postel y Paul Mockapetris instalaron el primer servidor raíz en 1984, y comenzaron a diseñar y probar el software DNS (Domain Name System). Por medio de una selección realizada por Jon Postel, basada en la capacidad técnica, conectividad, diversidad geográfica y profesionalismo en cada momento, los servidores raíz se fueron estableciendo en forma paulatina.


 

A fines de 1985 había 4 servidores raíz. No tenían los nombres actuales, y los operadores también han cambiado. Los servidores se llamaban SRI-NIC (ubicado en Stanford Research Institute – Network Information Center), ISIB e ISIC (localizados en Information Sciences Institute, en la Universidad del Sur de California) y BRL-AOS (instalado en el Ballistic Research Laboratory del Ejército de Estados Unidos).

En noviembre de 1987 había 7 servidores raíz. El 28 de julio de 1991 se instaló el primer servidor raíz fuera de los Estados Unidos, en Suecia, aunque aun se mantenía el número en 7. En 1995 se contaba con 9 servidores raíz, y en ese año se renombraron los servidores raíz a sus nombres actuales, yendo desde el A.ROOT-SERVERS.NET al I.ROOT-SERVERS.NET.

Solamente 13 servidores para todo Internet

La razón de que solamente se considere 13 servidores raíz es una cuestión de diseño y capacidad técnica del momento en que se establecieron estos servidores adicionales. En ese entonces, el tamaño máximo del paquete que se podía transmitir dejaba un espacio utilizable de 512 bytes.

Para asegurar que la respuesta a cada solicitud de DNS hecha por cualquier computador en el mundo contuviera los datos, nombre y dirección IP de todos los servidores raíz, y cupiera en ese espacio máximo, había que calcular cuál era el máximo número de servidores raíz que se podía tener.

Había que descontar el tamaño del encabezado de un paquete de DNS (12 bytes), el espacio para la interrogación (5 bytes) y la primera respuesta (31 bytes), lo que suma 48 bytes. Para cada subsecuente respuesta, se requieren 31 bytes por cada conjunto de datos de cada servidor raíz a ser enviado. Por tanto, al usar 13 servidores raíz, se tiene un total de 403 bytes. Entonces, 48 + 403 dan un total de 451 bytes. Si bien habría sido posible incluir un servidor 14 (31 bytes más, 482 bytes total), sobrando 30 bytes, los diseñadores optaron por dejar espacio para futuras expansiones. De ahí que el número acordado de servidores raíz se volvió 13.

Sin embargo, en la actualidad, usando la tecnología de Anycast, gracias a la cual varios equipos servidores pueden compartir la misma dirección IP, existen varias instancias de algunos de los servidores raíz, como se muestra en www.root-servers.org y en la siguiente tabla, que muestra cuántas veces se encuentra en el mundo cada uno de los Servidores Raíz. En El Salvador tenemos una instancia del servidor L.

blog410img02

 

 

Las tres eras de la Gobernanza de Internet

Como en un juego de tenis, en el que la pelota continuamente va de un lado a otro de la cancha, o en el de las bolas que rebotan y oscilan constantemente, las discusiones y posiciones de los muchos actores involucrados en las definiciones del tratamiento que deben tener las conductas en el ciberespacio se han venido fortaleciendo y, a veces, inclinándose hacia un esquema u otro de gobernanza de Internet.

blog407img01

De acuerdo a lo planteado por un grupo de investigadores de la Universidad de Carolina del Norte, en un artículo llamado “iGovernance: The future of Multistakeholder Internet Governance in the wake of the Apple encryption saga”, los autores hacen un recuento breve de las tres eras o fases que, hasta la fecha, la disposición hacia la gobernanza de Internet ha tenido, señalando fechas y sucesos específicos que marcan estas tres fases.

Algunos analistas, no necesariamente activos en el mundo de la tecnología, anticipan que el nivel de involucramiento de los estados en la dirección, administración y regulación de lo que ocurre en Internet será una de las principales áreas de debate y discusión en los próximos años.

Observando los acontecimientos recientes a nivel mundial, sobre todo en aspectos de ciberseguridad, y el nivel cada vez mayor de dependencia de la tecnología digital y de telecomunicaciones, no es difícil aceptar esa premisa.

La primera era: el silencioso surgimiento de Internet

Tipificado como un período de desarrollo silencioso, positivo, entusiasta y creciente de Internet en la mayor parte de países en el mundo, este período se ubica desde 1970 hasta 1998. La conceptualización, el diseño y la puesta en producción de la tecnología de comunicaciones llamada basada en los protocolos TCP/IP (1970) se desarrolló y propagó desde abajo hacia arriba, sin que hubiera necesidad de pedir permiso ni pagar alguna franquicia o licencia.

En esos años, muchos países de Latinoamérica y otros en el mundo, por iniciativas de unos pocos pioneros en cada lugar, gestionaron independientemente, de una forma abierta, cándida y con una visión nacionalista de desarrollo tecnológico y social, los recursos tecnológicos necesarios para conectar a sus países a la nueva red en evolución.

blog407img02

En 1998, el hito que marca la definición de esta era es la creación de la Corporación Internet para los Nombres y Números Asignados (ICANN), concebida para administrar y coordinar la gestión y operación, a un alto nivel, de los servicios de resolución de nombres de dominio, las direcciones IP y los protocolos utilizados en Internet.

La segunda era: la Gobernanza de Internet

Desde el principio, los aspectos tecnológicos eran los más sencillos de administrar, en comparación con los demás elementos que comenzaban a surgir en Internet. Esta fase se dice ir desde 1998 hasta 2006, año en que Naciones Unidas crea el grupo de Gobernanza de Internet, y el Foro de Gobernanza de Internet, dándole vida y recursos por 10 años.

blog407img03

El surgimiento con un claro mandato de este movimiento mundial reconocía explícitamente que era necesario e importante destinar recursos, tiempo y sobre todo, pensamiento y discusión, a otros temas más allá de la base tecnológica de Internet.

Lo más relevante acá fue la apertura a toda la sociedad, no solamente a los gobiernos, para que discutieran y, si era posible, definieran, cómo deberían tratarse los temas más preocupantes que sucedían en Internet. El modelo de múltiples partes interesadas cobró fuerza sobre el tradicionalista enfoque del rol protagónico de los gobiernos, aun perseguido por regímenes menos abiertos, como los de Rusia y China.

La tercera era: los gobiernos deben encontrar su rol

Comenzando en 2000, traslapándose con la segunda era, el tercer período abarca la reunión plenipotenciaria de WCIT en 2012, las revelaciones hechas por Edward Snowden, los reclamos de la presidenta de Brasil ante Naciones Unidas por la cibervigilancia realizada por los países más poderosos, la celebración del evento NetMundial en Sao Paulo, y la terminación del contrato entre NTIA e ICANN en septiembre de 2016, terminando con el vestigio remanente de la injerencia del gobierno de un país sobre las funciones técnicas de Internet.

blog407img04

Se anticipa que el rol del sector privado seguirá cobrando predominancia, buscando obviamente sus propios intereses empresariales y de generación de beneficios. Sin embargo, también los demás sectores, la academia, sociedad civil, comunidad técnica y los mismos gobiernos, seguirán buscando una mejor posición para hacer sentir y valer sus propios intereses y la visión que, en muchos casos, consideran genuinamente como la mejor para sus conciudadanos.

El vaivén y los argumentos continuarán fluyendo, y aunque cada país y región tiene la autonomía para tomar sus propias decisiones basadas en su dinámica interna, la inexistencia práctica de fronteras en el ciberespacio agrega un elemento de jurisdicción y conciliación de visiones que nunca antes en la historia de la humanidad había sido tan palpable y evidente.

 

La fundación Fab y su red de laboratorios de fabricación

En la planta 16 de un edificio ubicado en el centro de Boston, junto a otras muchas iniciativas de emprendedores, innovadores, y entusiastas provenientes de diversos lugares y disciplinas, se encuentra la pequeña sede de la Fundación Fab (Fab Foundation), desde la que se busca apoyar a la cada vez más grande red mundial de laboratorios de fabricación digital.

Desde hace varios años, el curso “Cómo construir (casi) cualquier cosa”, creado por Neil Gershenfeld, ha dado vida y continuidad a una filosofía y forma de enfrentar algunos retos en comunidades y grupos de personas en el mundo, con la ayuda de modernas herramientas y equipos de fabricación digital, tales como impresores 3D, cortadores láser, máquinas CNC y otros sofisticados y especializados dispositivos.

Traducción del autor
Traducción del autor

En conjunto, se trata del movimiento animado y hecho realidad por una comunidad mundial denominada como “hacedores” o “makers”. Son personas, grupos y equipos de trabajo que diseñan, pero sobre todo construyen y hacen un buen número de cosas con alguna utilidad, o simplemente para probar el concepto que han desarrollado, en un objeto tangible.

Siendo una fundación, esta organización ha logrado que miles de personas entusiastas en todo el mundo se organicen en pequeños conglomerados, y puedan formar y coordinar, en conjunto con otras instituciones o por su propia cuenta, los numerosos laboratorios de fabricación digital.

La lógica de la fabricación digital

Internet logró que los átomos se transformaran en bytes, al hacer posible que nuestras comunicaciones, incluyendo los muchos formatos en que colocamos la información (texto, gráficas, planos, mapas, fotografías, dibujos, vídeos, audios, digitalizaciones, etc.) viajaran de un extremo a otro del planeta en segundos, y pudiéramos establecer y cultivar mejores y más amplias relaciones con nuestros homólogos, socios, amigos y familiares.

Por otro lado, la globalización, a la que Internet también ha contribuido decisivamente, hace posible que el trabajo en una gran variedad de ámbitos y disciplinas se distribuya en varios puntos del planeta, diseñando en un lugar, depurando en otro, construyendo en un tercer país o región, probando más allá, y comercializando en varios sitios.

Fotografías del autor en Fab Foundation
Fotografías del autor en Fab Foundation

Lo más común en este proceso de fabricación es que los bienes y objetos sean transportados una vez terminados desde el punto de manufactura y producción hasta el lugar de compra y consumo, lo que además de introducir un desfase en tiempo, agrega costos, con frecuencia en una alta proporción, al precio que el usuario final debe pagar por el mismo.

La fabricación digital, que está apenas comenzando pero ya cuenta con algunos avances y posibilidades importantes, busca acercar el proceso de fabricación al usuario que es el destinatario final de los objetos fabricados, logrando de esta forma que, usando Internet como medio de transporte, seamos capaces de convertir bytes en átomos, transformando diseños y especificaciones en objetos tangibles y funcionales en nuestro alrededor.

En El Salvador y Latinoamérica

Bajo estas ideas, en nuestro país fue fundada la Asociación Fab Lab en 2013 con el objetivo de promover y democratizar esta forma de ver el diseño, la manufactura, producción y prueba de conceptos que acercan la fabricación al lugar donde se requieren los bienes producidos, mejorando el tiempo y costo de obtener productos que respondan a las necesidades reales de los usuarios.

Si bien nuestro país no cuenta aún con un laboratorio de fabricación digital en el sentido estricto, de acuerdo a las definiciones de la Fundación Fab, la Asociación Fab Lab viene promoviendo estas ideas desde su creación, contando en la actualidad con un número cada vez mayor de personas que comprenden y comparten estos principios.

Fotografía del autor en Fab Foundation
Fotografía del autor en Fab Foundation

Trabajando en las áreas de educación, proyección social y visión empresarial en forma simultánea, Fab Lab busca diseminar los conceptos a diversas audiencias, utilizando distintas estrategias. Obtener espacios físicos y dotarlos con los equipos que se necesitan no es una tarea fácil ni barata. De aquí que las alianzas con instituciones académicas, de servicio civil o gubernamentales, así como empresas con responsabilidad y visión social sea un camino adecuado para estas iniciativas.

La región también sigue avanzando. Con Perú en la vanguardia de la fabricación digital, nos recuerda cómo, en la década de 1990, ese mismo país impactó en forma importante en la difusión y diseminación de la conectividad a Internet en comunidades urbanas y rurales por medio de sus cabinas de acceso público; idea que se propagó al resto de países de una forma u otra.

Similarmente, los laboratorios de fabricación digital serán como los cibercafés durante la expansión de Internet, acercando los equipos a la población en general, y democratizando su acceso y uso. Aun falta mucho por ver y promover.

 

El valor e importancia creciente de los dispositivos que guardan información

¿Cuál ha sido su peor experiencia de pérdida de información digital? ¿Un documento dañado? ¿Una computadora con virus? ¿Un disco o USB que no funciona? ¿Una intromisión en su cuenta de correo o de redes sociales? ¿Una sustitución de identidad? ¿Un robo de dispositivo?

Cada día, millones de personas en el mundo crean y almacenan mucha información en formato digital, en una variedad de formas, con distintos valores y grados de importancia para cada uno. De la misma forma, miles sufren diariamente algún tipo de pérdida de información.

La cantidad de datos que cada uno de nosotros genera cada vez que usa cualquiera y todos sus dispositivos electrónicos es incalculable, tanto en los lugares de trabajo como a título personal. Son muy pocas las personas que se detienen a pensar acerca de espacio limitado, costo de procesamiento y almacenamiento, energía usada, y otros factores involucrados.

Esta indiferencia y poca conciencia sobre el costo, impacto y potencial de la información que generamos, almacenamos y difundimos es una consecuencia completamente lógica a partir de la facilidad de uso, tendencias y mejoras tecnológicas, estrategias de comercialización, abaratamiento de los dispositivos, espacios de almacenamiento, ubicuidad de la conectividad y muchos otros aspectos de nuestra vida moderna.

blog405img01

Hay una trampa inherente en esta facilidad y continua tentación que los dispositivos digitales ponen en nuestras manos: una parte de esa información generada es, de algún modo u otro, sensible, delicada, confidencial, privada y/o personal, para el individuo que la genera y/o para alguna otra persona. Por tanto, algún cuidado habría que prestar a esa parte de la información.

Algunos puntos de verificación

A continuación, una lista no exhaustiva de áreas a las que hay que poner atención, para reducir las posibilidades de pérdida o intrusión a nuestros datos:

Ingeniería social: posibles engaños, en persona o en línea, a los usuarios incautos, haciéndose pasar por soporte técnico u otras personalidades.

blog405img02

Correo electrónico, phishing y mensajería: lo que cada uno envía por mensajes puede terminar circulando libremente. Lo que se recibe por este medio también puede ser falso.

Navegación: no todos los sitios web son confiables para compartir datos sensibles. Se debe poner atención a los protocolos y elementos de seguridad.

Redes sociales: éste es uno de los ambientes menos controlados desde la perspectiva de seguridad, por lo que, si bien tiene muchas ventajas, deben ser administradas con precaución.

Dispositivos móviles y su seguridad: es fácil perder o dejar olvidado estos dispositivos, por lo que se recomienda habilitar el borrado remoto de datos, y mantenerlos con contraseña.

Contraseñas: se deben construir claves largas que usen distintos símbolos, usar diferentes para distintos accesos y cambiarlas frecuentemente. Se puede usar un administrador de claves.

blog405img03

Encriptamiento: para incrementar la seguridad y la dificultad para que puedan ser robados los datos, se puede usar el encriptamiento, que es codificar la información guardada o transferida.

Seguridad y destrucción de datos: en muchas organizaciones hay políticas de disposición de datos antiguos o que ya no se usan, tanto en papel como digitales, destruyéndolos apropiadamente.

Amenazas internas: con conocimiento o siendo víctimas de intrusos externos, el personal de la organización puede ser un punto de riesgo para pérdida o robo de información.

Trabajo remoto y viajes: al conectarse para trabajar desde fuera de la organización, se está sujeto a otros riesgos de intrusión o apropiación indebida. Las VPN (redes privadas virtuales) son una buena alternativa.

Seguridad física: dentro de la organización, los documentos y dispositivos móviles también debe asegurarse. Personas ajenas y con malas intenciones pueden apropiarse indebidamente de material de la organización al entrar a las instalaciones con alguna excusa.

Hackeo o intrusión: si nuestros equipos se comportan raro (o a veces no se nota mucho), puede ser que haya sido comprometido por una intrusión no autorizada. Es posible que sea necesario reinstalar el sistema operativo completo, por lo que se necesite recuperar el respaldo.

Servicios en la nube: en los casos de nubes privadas, donde conocemos al proveedor, se debe tener un contrato y conocimiento de dónde está la información. Si es nube pública, lo mejor es mantener copias de respaldo propias y considerar qué información se colocará en ella.

Reparación y mantenimiento: las empresas y personas que proveen mantenimiento o reparación a nuestros equipos deben también ser confiables, pues usualmente con el equipo a reparar también se va nuestra información sensible, de trabajo o personal.

Copias de respaldo y archivo: es necesario mantener copias de respaldo y/o archivo en forma actualizada, periódica y en medios perdurables y confiables, como discos Blu-Ray, por ejemplo.

blog405img04

Seguramente hay más medidas y áreas sobre las que debemos reflexionar, tanto en nuestros lugares de trabajo como a nivel personal. No es necesario esperar a tener más experiencias desagradables o nefastas respecto a la pérdida de información o privacidad de nuestros datos y, por otro lado, es importante saber que en muchas ocasiones somos nosotros mismos quienes ponemos en riesgo nuestra información, reputación, imagen y/o los datos de nuestra organización.

 

2º Encuentro de Open Hardware SV

Con la afluencia y participación de personas interesadas en este tema, el sábado 8 de octubre se realizó el 2º Encuentro de Open Hardware SV, en el auditorio del edificio E de la Universidad Francisco Gavidia. El evento fue organizado por los miembros de la Comunidad Open Hardware SV, que viene trabajando estos temas desde hace algunos años en el país. El 1er Encuentro se realizó en septiembre de 2013.

2doencuentro_afiche

Según Wikipedia, se llama hardware libre, hardware de código abierto, electrónica libre o máquinas libres a aquellos dispositivos de hardware cuyas especificaciones y diagramas esquemáticos son de acceso público, ya sea bajo algún tipo de pago, o de forma gratuita. Dado que el hardware tiene asociados a él costos variables directos, ninguna definición de software libre se puede aplicar directamente sin modificación. En cambio, el término hardware libre se ha usado principalmente para reflejar el uso del software libre con el hardware y el lanzamiento libre de la información con respecto al hardware, a menudo incluyendo el lanzamiento de los diagramas esquemáticos, diseños, tamaños y otra información acerca del hardware.

Por supuesto, esta filosofía impacta en los costos de cualquier proyecto real, pero al poder acceder a diagramas, diseños y planos de forma libre, también se vuelve de gran utilidad para la docencia, la enseñanza y el autoaprendizaje de habilidades y competencias que posteriormente serán convertidas en emprendimientos productivos, en la forma de construcciones y equipos que sirven a la industria, comercio y servicios.

El programa de charlas y talleres

El 2º Encuentro de Open Harwdare SV dio inicio con la presentación general de qué es la Comunidad Open Hardware SV, y una sucinta historia de lo que se ha hecho hasta el presente, incluyendo el haber sido aceptados, como primer capítulo internacional de OSHWA (Open Source Hardware Association, o Asociación de Hardware de Fuente Abierta), que es una organización mundial muy activa en estos temas.

blog404img02

Se describió la existencia y operación del primer Hackerspace que fue abierto en San Salvador, siguiendo la tendencia de otras regiones, siendo un espacio abierto y de trabajo colaborativo para realizar diseños y proyectos utilizando elementos electrónicos y de programación. Este Hackerspace se encuentra ubicado en 105 Avenida Norte y Calle Arturo Ambrogi, casa No. 442, compartiendo espacio con otras iniciativas.

También se presentó la técnica de HLS (Síntesis de Alto Nivel, por sus siglas en inglés), para el desarrollo rápido de prototipos. Se eleva el nivel de abstracción para hacer el diseño, realizando el  mismo por medio de software, y luego integrando diseños de partes que otras personas han desarrollado y que permiten, bajo la filosofía de Open Hardware, ponerlos a disposición pública.

Desde Ecuador, por medio de una videoconferencia, se hizo una reseña de los avances y experiencias del diseño y ejecución de Open Hardware en ese país. Se habló de algunos de los tipos de licencias que se pueden utilizar: Licencia hardware libre TAPR12, licencia CERN de Hardware Libre (OHL)16, licencia Hardware Design Public y licencia OSHWA.

Se presentó el proyecto en robótica educativa en el sector público, bajo el Viceministerio de Ciencia y Tecnología, llamado “Chuncebot”. En esta iniciativa, que busca también utilizar elementos de reciclaje, electrónicos, mecánicos y otros, se pretende interesar a docentes y alumnos en el diseño y construcción creativa de elementos de la robótica, electromecánica, Mecatrónica.

blog404img03

Finalmente, por la tarde, se desarrollaron dos talleres prácticos de utilidad para la comunidad. El primero se enfocó en la forma, metodología y procesos para documentar los diseños de Open Hardware, de forma que se sigan estándares internacionales; el segundo taller trató sobre el diseño y la fabricación, usando tecnologías de impresión 3D, de carcazas o estuches para los proyectos de Open hardware que se deseen comercializar, o al menos proveerles una mejor presentación.

Como siguiente paso, la Comunidad Open Hardware SV espera realizar un certamen de diseños utilizando la filosofía y técnicas del Open Hardware, y por medio de la participación de jurados especializados, definir ganadores a nivel nacional, estimulando de esta forma el desarrollo de más grupos y comunidades de trabajo.