
GIOVANNI CAMBRONERO SUÁREZ
Responsable de TI y Ciberseguridad

El Ing. Giovanni Cambronero Suárez, es un destacado profesional con una extensa experiencia en el campo de la ingeniería cibernética y sistemas computacionales. Graduado de la Universidad de la Salle, con un postgrado en Alta dirección de TI por el EGADE Business del Tec de Monterrey y Sloan School of Management del MIT, ha acumulado un amplio conocimiento durante su trayectoria.
A lo largo de su carrera, ha trabajado en distintos organismos internacionales, desempeñando diversas actividades como experto técnico de la Comisión Electrotécnica Internacional (IEC) en Smart Cities y Ciberseguridad; experto de la Unión Internacional de Telecomunicaciones (ITU) en Distributed Layer Technologies y experto invitado al grupo de estudio 17 de Seguridad de la ITU.
También, ha participado en la publicación de más de 6 normas internacionales; ha sido coordinador del grupo de trabajo 2 del comité de sistemas de ciudades inteligentes de IEC y cuenta con un Certified Etical Hacker desde 2011.
En la actualidad, se desempeña como catedrático de la Escuela de Ingeniería de la Universidad la Salle, además de ser Director de Informática de la SECOFI, Gerente de sistemas de ANCE y Líder de TI y Ciberseguridad de ANCE.
Generar soluciones que contribuyan a la transformación digital y el manejo seguro de la información lo convierte en una pieza clave para cada uno de los organismos en los que participa.
La inteligencia artificial (IA) es la capacidad de las máquinas o los sistemas de realizar tareas que normalmente requieren inteligencia humana, como el razonamiento, el aprendizaje, la percepción o la toma de decisiones.
Existen diferentes tipos de IA según su grado de autonomía, su ámbito de aplicación o su nivel de complejidad. Algunos ejemplos son la IA débil o específica, que se enfoca en una sola tarea; la IA fuerte o general, que puede realizar cualquier tarea intelectual humana; o la IA superinteligente, que supera la capacidad humana en todos los aspectos.
La evolución detallada de la IA se puede dividir en cuatro etapas:
La IA reactiva, la IA limitada, la IA de teoría de la mente y la IA autoconsciente. Cada etapa representa un nivel de complejidad y sofisticación mayor en el diseño y la implementación de los sistemas de IA.

Reactiva es la forma más simple y antigua de IA, que consiste en sistemas que responden a estímulos externos sin memoria ni aprendizaje.
Limitada es el tipo de IA más común y presente en la actualidad, que se caracteriza por sistemas que pueden realizar tareas específicas con un alto grado de eficiencia y precisión, pero que no pueden generalizar ni transferir su conocimiento a otros dominios. Algunos ejemplos son los asistentes virtuales como Siri o Alexa, los sistemas de reconocimiento facial o los vehículos autónomos.
De teoría de la mente es el tipo de IA que aún no existe, pero que se espera que se desarrolle en el futuro, que implica sistemas que pueden comprender y emular las emociones, las creencias, las intenciones y las expectativas de otros agentes, tanto humanos como no humanos. Esto requeriría una mayor integración entre la IA y las ciencias cognitivas, sociales y afectivas.
Autoconsciente es el tipo de IA más avanzado y controvertido, que supone sistemas que pueden tener una conciencia propia, un sentido de identidad, una voluntad y una moral. Esta es la forma de IA que se asocia con la singularidad tecnológica, el punto en el que la IA superaría a la inteligencia humana y tendría un impacto impredecible en la sociedad y la civilización.
La IA tiene un gran impacto y aplicaciones en diferentes sectores, como la salud, la educación, la industria, el comercio, la seguridad o el entretenimiento.
Algunos ejemplos de cómo la IA puede mejorar estos sectores son:
- En la salud, la IA puede ayudar a diagnosticar enfermedades, analizar imágenes médicas, diseñar tratamientos personalizados o monitorizar el estado de los pacientes.
- En la educación, la IA puede facilitar el aprendizaje adaptativo, la evaluación automática, la tutoría inteligente o la generación de contenidos educativos.
- En la industria, la IA puede optimizar los procesos de producción, mejorar la calidad de los productos, reducir los costes o aumentar la seguridad de los trabajadores.
- En el comercio, la IA puede mejorar la experiencia del cliente, ofrecer recomendaciones personalizadas, predecir la demanda o detectar fraudes.
- En la seguridad, la IA puede ayudar a prevenir delitos, identificar amenazas, proteger infraestructuras críticas o mejorar la respuesta ante emergencias.
- En el entretenimiento, la IA puede crear contenidos audiovisuales, generar música, diseñar videojuegos o simular escenarios virtuales.


Normas Internacionales sobre IA
ISO/IEC JTC 1/SC 42 es el subcomité de la Comisión Conjunta Técnica 1 (JTC 1) de la Organización Internacional de Normalización (ISO) y la Comisión Electrotécnica Internacional (IEC) que se encarga del desarrollo de estándares para la inteligencia artificial y sus aplicaciones. El subcomité se estableció en 2017 con el objetivo de proporcionar un marco común y coherente para la normalización de la IA, abarcando aspectos como los conceptos, la terminología, la confianza, la ética, la gobernabilidad, la seguridad, la interoperabilidad y el rendimiento. El subcomité también se ocupa de identificar las necesidades y las brechas de los estándares existentes, así como de coordinar y colaborar con otras organizaciones internacionales y regionales que trabajan en el ámbito de la IA. El subcomité cuenta con más de 30 países participantes y más de 20 países observadores, y tiene seis grupos de trabajo y cuatro grupos de estudio que cubren diferentes temas relacionados con la IA. Entre las normas que desarrolla se encuentran las relativas a los conceptos y terminología, la confianza, la ética, la seguridad, la calidad, la interoperabilidad y el rendimiento de los sistemas de inteligencia artificial.
Entre las normas que ha publicado o está desarrollando se encuentran las siguientes:
- ISO/IEC 20546:2019: Información y documentación – Big data – Marco de referencia
- ISO/IEC 22989:2020: Inteligencia artificial – Conceptos y terminología
- ISO/IEC 23053:2020: Inteligencia artificial – Marco de referencia para sistemas de inteligencia artificial confiables
- ISO/IEC TR 24028:2020: Inteligencia artificial – Panorama general de las cuestiones éticas para la inteligencia artificial
- ISO/IEC TR 24029-1:2021: Inteligencia artificial – Evaluación de la robustez – Parte 1: Panorama general
- ISO/IEC CD 38507: Inteligencia artificial – Gobernanza de los sistemas de inteligencia artificial
- ISO/IEC CD 4213: Inteligencia artificial – Evaluación del rendimiento de los sistemas de inteligencia artificial
- ISO/IEC CD 52424: Inteligencia artificial – Gestión del riesgo para los sistemas de inteligencia artificial
Estas normas buscan establecer un lenguaje común, unos principios y unas buenas prácticas para el diseño, la implementación, el uso y la evaluación de los sistemas de inteligencia artificial, así como para fomentar la confianza, la transparencia, la responsabilidad y la ética en este ámbito.
El grupo de estudio IEC SEG 10 tiene como objetivo desarrollar un marco ético para las aplicaciones autónomas y de inteligencia artificial (IA) que se basen en los principios de la IEC y que sean compatibles con los estándares internacionales. El grupo de estudio se ocupa de cuestiones como la responsabilidad, la transparencia, la confianza, la seguridad, la privacidad y la inclusión en el diseño, el desarrollo, la implementación y el uso de estas aplicaciones. El grupo de estudio también busca fomentar el diálogo entre las partes interesadas y promover las buenas prácticas en el campo de la ética de la IA.
Algunas de las normas que está elaborando el SEG 10 son:
- IEC 63107: Guía para la evaluación ética de las aplicaciones autónomas y de IA
- IEC 63108: Requisitos para la gobernabilidad ética de las aplicaciones autónomas y de IA
- IEC 63109: Requisitos para el diseño ético de las aplicaciones autónomas y de IA
- IEC 63110: Requisitos para la operación ética de las aplicaciones autónomas y de IA

Estas normas tienen como objetivo garantizar que las tecnologías emergentes se diseñen, implementen y utilicen de manera responsable, segura y confiable, respetando los derechos humanos, la dignidad y la privacidad de las personas. El SEG 10 colabora con otros organismos internacionales, nacionales y regionales, así como con expertos de diversos sectores y disciplinas, para establecer principios, directrices y buenas prácticas que orienten el desarrollo ético de las aplicaciones autónomas y de IA. El SEG 10 también busca fomentar la concienciación y la educación sobre los aspectos éticos de estas tecnologías, tanto entre los profesionales como entre el público en general.
La Unión Internacional de Telecomunicaciones (ITU, por sus siglas en inglés) es el organismo especializado de las Naciones Unidas que se encarga de regular las telecomunicaciones a nivel mundial. Entre sus funciones, se encuentra la elaboración de estándares técnicos que faciliten la interoperabilidad, la seguridad y la calidad de los servicios de telecomunicaciones. Estos estándares, conocidos como Recomendaciones ITU, abarcan diversos ámbitos, como las redes, los servicios, los protocolos, los equipos y las frecuencias.
La ITU reconoce la importancia de la IA para el desarrollo de las telecomunicaciones y ha creado varios grupos de trabajo y foros para estudiar su impacto y sus aplicaciones. Asimismo, ha desarrollado varias Recomendaciones ITU relacionadas con la IA, como las que definen los principios éticos para el diseño, el desarrollo y el uso de la IA; las que establecen los requisitos para la evaluación y la certificación de la calidad de los sistemas de IA; o las que especifican los métodos para la integración de la IA en las redes y los servicios de telecomunicaciones.
Entre las normas que la ITU ha desarrollado o está desarrollando en relación con la IA, se pueden mencionar las siguientes:
Recomendación ITU-T Y.3172: Marco arquitectónico para el aprendizaje automático en futuras redes. Esta norma define los conceptos, los requisitos y los escenarios de uso del aprendizaje automático (ML) en las redes de comunicación, así como los componentes y las interfaces necesarios para su implementación.
Recomendación ITU-T Y.4806: Seguridad en el contexto del aprendizaje automático. Esta norma proporciona directrices para garantizar la seguridad de los sistemas basados en ML, tanto desde el punto de vista del diseño como del funcionamiento. También aborda los riesgos y las amenazas que pueden afectar a estos sistemas, así como las medidas de mitigación correspondientes.
Recomendación ITU-T F.748.8: Marco para el reconocimiento facial utilizando técnicas de IA. Esta norma específica los requisitos funcionales, los parámetros de rendimiento y las pruebas de evaluación para los sistemas de reconocimiento facial basados en IA, con el fin de asegurar su fiabilidad, precisión y protección de la privacidad.
Recomendación ITU-T H.265: Codificación de vídeo avanzada para servicios audiovisuales genéricos. Esta norma define un formato de compresión de vídeo que utiliza técnicas de IA para mejorar la eficiencia y la calidad de la transmisión y el almacenamiento de imágenes.


La relación entre las normas de telecomunicaciones y la IA es bidireccional. Por un lado, las normas facilitan el desarrollo y la implementación de soluciones basadas en IA para las telecomunicaciones, al proporcionar un marco común y armonizado para su diseño, evaluación y despliegue. Por otro lado, la IA puede ayudar a mejorar el proceso de elaboración de normas, al ofrecer herramientas para el análisis de datos, la generación de propuestas y la resolución de conflictos.
El Instituto Nacional de Estándares y Tecnología (NIST) es una agencia del Departamento de Comercio de EE.UU. que se encarga de desarrollar y promover estándares y directrices para la inteligencia artificial (IA) en el país. El NIST tiene como misión fomentar la innovación, la confianza y el liderazgo en la IA mediante la investigación, el desarrollo y la evaluación de tecnologías, sistemas y aplicaciones basados en la IA. El NIST también colabora con otras agencias federales, el sector privado, la academia y la sociedad civil para establecer principios y prácticas éticas, justas y responsables para el uso de la IA. Algunas de las áreas clave en las que el NIST trabaja son: la calidad y seguridad de los datos, la interoperabilidad y portabilidad de los sistemas de IA, la robustez y fiabilidad de los algoritmos y modelos de IA, la transparencia y explicabilidad de las decisiones basadas en la IA, y la protección de la privacidad y los derechos humanos en el contexto de la IA.
El NIST ha publicado recientemente una serie de directrices y estándares para la IA en EE.UU., con el objetivo de fomentar la innovación, la confianza y la responsabilidad en el uso de esta tecnología. Algunos de los temas que abordan estas directrices son: los principios éticos y los valores humanos que deben guiar el diseño y la implementación de la IA, los requisitos de calidad y rendimiento que deben cumplir los sistemas de IA, los métodos y herramientas para evaluar y medir la IA, y las mejores prácticas para asegurar la interoperabilidad, la seguridad y la privacidad de la IA. Estas directrices y estándares están destinados a servir como referencia para los desarrolladores, los usuarios, los reguladores y el público en general, y buscan contribuir al desarrollo de una IA confiable, robusta y beneficiosa para la sociedad.
Algunos ejemplos de los estándares y directrices que el NIST ha publicado o está desarrollando son:
- El marco de confianza en la IA, que proporciona un conjunto de principios, prácticas y herramientas para evaluar y mejorar la confianza en los sistemas de IA.
- El documento NISTIR 8269, que establece un proceso para identificar y gestionar los riesgos asociados a la IA.
- El documento NISTIR 8312, que ofrece una visión general de las técnicas de explicabilidad de la IA y sus aplicaciones potenciales.
- El documento NISTIR 8356, que describe los requisitos y las consideraciones para el desarrollo y la evaluación de las métricas de equidad de la IA.
- El documento NISTIR 8360, que presenta un marco para el desarrollo y la evaluación de las métricas de robustez de la IA.

Impacto de la normalización en la IA
La inteligencia artificial (IA) es una tecnología que tiene un gran potencial para transformar el mundo, pero también implica riesgos y desafíos que deben ser abordados con responsabilidad. Por eso, es fundamental establecer normas que garanticen la seguridad, la privacidad y la ética de la IA, tanto en su desarrollo como en su aplicación. Estas normas deben basarse en los principios de los derechos humanos, el estado de derecho y la democracia, y deben respetar los valores y la diversidad de las sociedades. Así, se podrá fomentar una IA confiable, inclusiva y sostenible, que beneficie a las personas y al planeta.
La normalización es el proceso de establecer criterios comunes y consensuados para el diseño, la evaluación y el uso de la inteligencia artificial (IA). La normalización contribuye a la promoción de la interoperabilidad y la confianza en la IA, ya que facilita la compatibilidad entre sistemas, la transparencia de los algoritmos, la calidad de los datos, la seguridad de los usuarios y el respeto a los valores éticos y legales. La normalización también favorece la innovación y la competitividad en el sector de la IA, al crear un marco común que reduce los costes, mejora la eficiencia y fomenta la colaboración entre los agentes implicados.
Uno de los aspectos más importantes de la normalización en la IA es la definición de conceptos, términos y principios comunes que permitan una comunicación clara y precisa entre los diferentes actores involucrados en el diseño, la implementación, el uso y la evaluación de los sistemas basados en IA. Esto facilita el entendimiento mutuo, la colaboración y la confianza entre los desarrolladores, los proveedores, los reguladores, los usuarios y la sociedad en general. Además, la normalización ayuda a establecer criterios de calidad, rendimiento, fiabilidad, seguridad y ética que garanticen que los sistemas basados en IA cumplan con las expectativas y los requisitos de sus destinatarios.
Finalmente, la normalización en la IA puede contribuir a generar confianza y transparencia en el uso de los sistemas basados en IA. La normalización puede facilitar el cumplimiento de las normativas legales y éticas aplicables a los sistemas basados en IA, así como el respeto a los derechos humanos y los valores sociales. Además, la normalización puede fomentar la explicabilidad, la trazabilidad, la auditoría y la rendición de cuentas de los sistemas basados en IA, lo que permite verificar su funcionamiento, detectar posibles errores o sesgos y corregirlos o mitigarlos.
En conclusión, la normalización es un paso importante para el avance de la IA, ya que puede mejorar su calidad, su eficiencia, su interoperabilidad y su seguridad, así como generar confianza y transparencia en su uso. Sin embargo, la normalización no debe ser un obstáculo para la creatividad, la diversidad o la innovación en el campo de la IA. Por ello, es necesario un equilibrio entre la armonización y la flexibilidad, así como una participación activa y colaborativa de todos los actores interesados en el proceso de normalización.