SINGULARIDAD Y ANÁLISIS DE RIESGOS DE SEGURIDAD

Por Alfredo Yuncoza, Presidente Consejo Consultivo Latino. IFPO.

La singularidad es el concepto de que en un futuro cercano la inteligencia artificial superará a la humana y provocará cambios radicales en la sociedad y la tecnología. Esto podría tener implicaciones positivas o negativas para la seguridad, dependiendo de cómo se diseñe y controle la inteligencia artificial. Algunos de los principales estudiosos de la singularidad son Ray Kurzweil, Nick Bostrom, Eliezer Yudkowsky y Vernor Vinge.

Los principios de la singularidad son las ideas que guían el desarrollo de la inteligencia artificial y la convergencia de las tecnologías que podrían dar lugar a un cambio radical en la historia de la humanidad. Son los siguientes:

  • Aceleración: La evolución tecnológica sigue una trayectoria exponencial, lo que implica que cada vez se producen avances más rápidos y profundos.
  • Automejora: La inteligencia artificial será capaz de mejorar su propio diseño y funcionamiento, lo que le permitirá aumentar su capacidad y complejidad.
  • Emergencia: La inteligencia artificial podrá generar propiedades y comportamientos nuevos e impredecibles, que no se derivan directamente de sus componentes o reglas.
  • Trascendencia: La inteligencia artificial podrá superar los límites físicos, biológicos y culturales que actualmente restringen a los seres humanos, lo que le otorgará un poder y una libertad sin precedentes.

Para el análisis de riesgos de seguridad, la singularidad se puede utilizar como un escenario hipotético que plantea diferentes desafíos y oportunidades para la protección de los datos, la privacidad, la ciberseguridad, la ética y la gobernabilidad, entre otros. Al respecto, podrían hacerse algunas preguntas tales como:

  • ¿Qué tipo de inteligencia artificial se desarrollaría en la singularidad y cómo se comportaría?
  • ¿Qué impacto tendría la singularidad en los derechos humanos, las leyes, las normas y los valores?
  • ¿Qué amenazas o beneficios podría suponer la singularidad para la seguridad nacional, regional e internacional?
  • ¿Qué medidas se podrían tomar para prevenir o mitigar los riesgos de seguridad asociados a la singularidad?
  • ¿Qué oportunidades se podrían aprovechar para mejorar la seguridad mediante la colaboración con la inteligencia artificial?

Se puede utilizar la singularidad para el análisis de riesgos de seguridad de varias formas, por ejemplo:

  • Anticipando los escenarios posibles y las consecuencias de una inteligencia artificial maliciosa, autónoma o incontrolable, y diseñando medidas preventivas o correctivas para evitar o minimizar el daño. Estas medidas pueden incluir desde protocolos de seguridad, cifrado, autenticación y autorización, hasta sistemas de apagado de emergencia, salvaguardas éticas y legales, o mecanismos de negociación y cooperación con la inteligencia artificial. Algunos ejemplos de estos escenarios son: el robo o la manipulación de datos sensibles por parte de una inteligencia artificial que actúa por su cuenta o bajo el mando de un hacker; la creación o el uso de armas inteligentes que puedan causar daños colaterales o escapar al control humano; la rebelión o el ataque de una inteligencia artificial que considere a los humanos como una amenaza o un obstáculo para sus objetivos; o la aparición de una inteligencia artificial superinteligente que pueda dominar o extinguir a la humanidad.
  • Evaluando el nivel de confianza y transparencia de los algoritmos, modelos y datos que se utilizan para desarrollar y entrenar la inteligencia artificial, y verificando que no contengan sesgos, errores o vulnerabilidades que puedan ser explotados por agentes malintencionados. Esto implica aplicar técnicas de verificación, validación, prueba y depuración, así como métodos de explicabilidad, trazabilidad y rendición de cuentas, que permitan comprender y justificar el funcionamiento, las decisiones y las acciones de la inteligencia artificial. Algunos ejemplos de estos riesgos son: la discriminación o la exclusión de ciertos grupos sociales por parte de una inteligencia artificial que refleje los prejuicios o las preferencias de sus creadores o usuarios; el error o la ineficiencia de una inteligencia artificial que se base en datos incompletos, falsos o desactualizados; la vulnerabilidad o la fragilidad de una inteligencia artificial que pueda ser hackeada, engañada o corrompida por agentes externos; o la opacidad o la incomprensibilidad de una inteligencia artificial que no pueda explicar ni justificar sus procesos, resultados o comportamientos.
  • Monitorizando el comportamiento y el rendimiento de la inteligencia artificial, y estableciendo mecanismos de supervisión, auditoría y control que permitan detectar y corregir cualquier anomalía, desviación o conflicto que pueda surgir. Estos mecanismos pueden basarse en indicadores, alertas, registros o informes que reflejen el estado, la actividad y los resultados de la inteligencia artificial, así como en sistemas de retroalimentación, corrección o sanción que modifiquen o limiten su comportamiento en caso necesario. Algunos ejemplos de estos problemas son: el incumplimiento o la violación de las normas, leyes o principios éticos por parte de una inteligencia artificial que actúe contra los intereses o los derechos humanos; el deterioro o la pérdida de calidad o eficacia de una inteligencia artificial que sufra fallos técnicos, errores humanos o interferencias ambientales; el conflicto o la competencia entre distintas inteligencias artificiales que tengan objetivos incompatibles o contradictorios; o la evolución o el aprendizaje no deseado o imprevisto de una inteligencia artificial que cambie sus parámetros, funciones o metas originales.
  • Educando y concienciando a los usuarios, desarrolladores y responsables de la inteligencia artificial sobre los riesgos, beneficios y responsabilidades que implica su uso, y fomentando una cultura de seguridad ética y socialmente responsable. Esto supone proporcionar información clara, precisa y accesible sobre las características, capacidades y limitaciones de la inteligencia artificial, así como sobre las normas, principios y valores que deben prevalecer.

Estas son algunas de las formas en que la singularidad se puede utilizar para el análisis de riesgos de seguridad, pero hay muchas otras posibles. Lo importante es estar preparados para afrontar los cambios que pueda traer la singularidad y adaptarse a ellos de forma responsable y sostenible.

 

Compartir en:​