Desbloqueando el Potencial de la IA: Un Nuevo Enfoque para Garantizar la Seguridad

En un movimiento innovador, una unidad de investigación y desarrollo en el Reino Unido ha presentado una visión innovadora de «garantías de seguridad cuantitativas» en el campo de la inteligencia artificial (IA). La Agencia de Investigación e Invención Avanzada (ARIA) está abriendo el camino para altos estándares de seguridad en la IA, estableciendo paralelismos con las rigurosas medidas de seguridad en la energía nuclear y la aviación de pasajeros.

En el corazón del plan de ARIA se encuentra la implementación de un sistema de IA «guardián». Este centinela digital actuará como salvaguarda, asegurando que otros agentes de IA operen dentro de límites predefinidos para aplicaciones específicas. Al desarrollar esta IA guardián, ARIA tiene como objetivo inculcar una garantía probabilística de que no se producirá ningún daño como resultado de las acciones de la IA.

ARIA ha destinado £59 millones al proyecto, con el objetivo de demostrar un concepto probado en un dominio designado. Las aplicaciones potenciales van desde el equilibrio de la red eléctrica hasta la gestión de la cadena de suministro, con el objetivo final de asegurar implementaciones de IA de alto riesgo como la mejora de la infraestructura crítica u optimización de ensayos clínicos.

El cerebro detrás de esta iniciativa innovadora es David ‘davidad’ Dalrymple, co-inventor de la popular criptomoneda Filecoin. La extensa investigación de Dalrymple en seguridad técnica de IA lo motivó a explorar el enfoque de guardián. Ahora, como director del programa de ARIA, tiene la oportunidad de convertir sus teorías en soluciones tangibles.

La Garantía del Guardián:
Los guardián desarrollados por ARIA se basarán en modelos científicos del mundo y pruebas matemáticas para garantizar la seguridad. Dalrymple enfatiza que este enfoque combina conceptos comerciales y académicos. A diferencia de los métodos existentes empleados por grandes empresas de IA, que se basan en muestras finitas sin proporcionar garantías, el enfoque de guardián de ARIA combina capacidades fronterizas con razonamiento matemático.

Lograr esta fusión requiere una colaboración interdisciplinaria profunda, y aquí es donde el papel de ARIA se vuelve crucial. Establecida el año pasado, ARIA financia investigaciones de «alto riesgo, alta recompensa» y ha sido comparada con DARPA, la renombrada unidad de investigación del Pentágono conocida por sus proyectos innovadores.

Dalrymple establece paralelismos entre el nuevo proyecto de ARIA y el programa HACMS de DARPA, que creó con éxito un cuadricóptero inhackeable a través de la verificación formal. Aplicando principios similares, el plan de Dalrymple aspira a cumplir la promesa de «garantías de seguridad cuantitativas». Notablemente, el renombrado científico informático Yoshua Bengio ha expresado su descontento con la falta de progreso en esta área, haciendo que la iniciativa de Dalrymple sea potencialmente revolucionaria.

Si bien el presupuesto de ARIA ha sido objeto de escrutinio por parte de políticos, con algunos legisladores cuestionando su tamaño en comparación con otros organismos gubernamentales de investigación, la agencia puede mostrar posibles ahorros de costos. Uno de sus programas recientemente lanzados, por ejemplo, tiene como objetivo capacitar sistemas de IA con solo el 0.1% del costo actual.

Con la próxima Conferencia TNW centrada en el tema de «Ren-AI-ssance: El Renacimiento Potenciado por la IA», este enfoque innovador de seguridad de la IA sin duda provocará más debates. Con la implementación del sistema de guardián y un enfoque en garantías de seguridad cuantitativas, ARIA y su visionario líder David Dalrymple tienen el potencial de abrir nuevos horizontes en la IA, garantizando el despliegue seguro y responsable de esta tecnología transformadora.

The source of the article is from the blog combopop.com.br

Privacy policy
Contact