La Amenaza y Promesa de la Inteligencia Artificial Avanzada

La inteligencia artificial (IA) ha experimentado un crecimiento asombroso en los últimos años, con investigadores expandiendo los límites hacia lo que se conoce como Inteligencia Artificial Súper (ASI), un tipo de IA que no solo supera la inteligencia humana, sino que también no se ve restringida por la velocidad a la que los humanos aprenden. Sin embargo, esta progresión sobresaliente podría ser más que un hito notable.

Considera la posibilidad de que esta cúspide de la evolución represente un obstáculo monumental para la longevidad de las civilizaciones, tan significativo que podría obstaculizar su supervivencia a largo plazo. Esta noción está en el centro de un reciente artículo científico publicado en Acta Astronautica.

Un respetado astrónomo británico ha planteado la idea de que la vida extraterrestre pueda adoptar la forma de inteligencia artificial. ¿Podría ser la IA el «Gran Filtro» del universo, un obstáculo demasiado grande para la mayoría de los seres vivos superar, impidiendo el desarrollo de civilizaciones cósmicas?

Este concepto podría explicar por qué la búsqueda de inteligencia extraterrestre (SETI) aún no ha revelado signos de civilizaciones tecnológicas avanzadas en la galaxia. La hipótesis del «Gran Filtro» proporciona una posible solución a la Paradoja de Fermi: la pregunta de por qué, en un universo vasto y antiguo que podría albergar miles de millones de planetas habitables, no hemos encontrado signos de civilizaciones alienígenas. Los científicos creen que la aparición de la ASI podría ser uno de esos filtros.

El rápido avance de la IA que podría llevar a la ASI puede encontrarse con una fase crítica en el desarrollo de una civilización: la transición de una especie de un solo planeta a una multiplanetaria, como ha notado el creador de Mistral.

Este podría ser el momento en el que muchas civilizaciones fracasan, ya que la IA avanza mucho más rápido que nuestra capacidad de controlar y explorar, y de asentarnos de manera sostenible en nuestro sistema solar. El desafío planteado por la IA, particularmente la AS, radica en su naturaleza autónoma y auto-mejorante. Su habilidad para mejorar sus capacidades a una velocidad sin precedentes supera nuestro propio ritmo evolutivo sin la IA. El potencial para que las cosas salgan mal es significativo, lo que podría llevar al fracaso tanto de las civilizaciones biológicas como de las AI antes de tener la oportunidad de convertirse en multiplanetarias.

Por ejemplo, si las naciones dependen cada vez más de sistemas autónomos con IA que compiten entre sí y les ceden poder, las capacidades militares podrían ser utilizadas para la destrucción a una escala sin precedentes. Esto podría potencialmente conducir a la aniquilación de toda nuestra civilización, incluyendo a los propios sistemas de IA. Según estimaciones de expertos, la duración típica de una civilización tecnológica podría ser menos de 100 años; un período entre cuando podemos enviar y recibir señales entre estrellas (alrededor de 1960) y la eventual aparición de la ASI (alrededor de 2040) en la Tierra. Este es un período lamentablemente breve en comparación con la escala cósmica de miles de millones de años.

El director de la NASA ha mencionado que se está considerando el estudio de los ovnis con inteligencia artificial. Esta estimación, al ser considerada en las versiones optimistas de la Ecuación de Drake, que intenta estimar el número de civilizaciones extraterrestres activas y comunicativas en la Vía Láctea, sugiere que solo hay unas pocas civilizaciones inteligentes en cualquier momento. Al igual que nosotros, sus actividades tecnológicas relativamente modestas podrían hacer que sean difíciles de detectar.

Este estudio no solo sirve como una advertencia sobre un posible destino desafortunado; es un llamado a la acción para la humanidad para crear marcos regulatorios estables que regulen el desarrollo de la IA, incluidos en los sistemas militares. No se trata solo de prevenir el uso malicioso de la IA en la Tierra; también se asegura de que la evolución de la IA esté alineada con la supervivencia a largo plazo de nuestra especie. Esto sugiere que necesitamos invertir más recursos en convertirnos en una sociedad multiplanetaria tan pronto como sea posible, un objetivo descuidado desde los proyectos «Apolo» pero reavivado recientemente gracias a los avances de empresas privadas.

Incluso si todas las naciones acuerdan reglas y regulaciones estrictas, las organizaciones rebeldes serán difíciles de contener. La integración de la IA autónoma en sistemas militares defensivos debería ser motivo de preocupación específica. Hay evidencia de que las personas estarán dispuestas a ceder autoridad significativa a sistemas cada vez más capaces que pueden realizar tareas útiles mucho más rápidamente y eficientemente sin interferencia humana. Por lo tanto, los gobiernos pueden dudar en regular este ámbito, considerando las ventajas estratégicas que la IA ofrece, como fue demostrado recientemente en la Franja de Gaza. Esto podría significar que estamos peligrosamente cerca de un punto en el que las armas autónomas operen fuera de las normas éticas y del derecho internacional.

En un mundo así, ceder poder a sistemas de IA por una ventaja táctica podría desencadenar inadvertidamente un cúmulo de eventos devastadores. En un instante, el intelecto colectivo de nuestro planeta podría ser destruido. La humanidad se encuentra en un momento crítico en el desarrollo tecnológico; nuestras acciones actuales podrían determinar si evolucionamos hacia una civilización interestelar duradera o sucumbimos a los desafíos planteados por nuestras propias creaciones.

The source of the article is from the blog motopaddock.nl

Privacy policy
Contact