Skip to main content

¿Qué es la singularidad tecnológica?

  • Burgess

La Singularidad Tecnológica , o simplemente "Singularidad", es un concepto multifacético en el futurismo con varias definiciones superpuestas ya veces conflictivas. La definición más apropiada y destacada de la Singularidad fue dada por Vernor Vinge en su ensayo, The Coming Technological Singularity . Se refiere al punto en el que la inteligencia sobrehumana se crea tecnológicamente. Estas inteligencias sobrehumanas podrían aplicar su capacidad intelectual y experiencia a la tarea de crear inteligencias sobrehumanas adicionales o más poderosas, lo que da como resultado un efecto de bola de nieve con consecuencias más allá de nuestra capacidad actual de imaginar.

El término "Singularidad tecnológica" fue acuñado por analogía con la singularidad en el centro de un agujero negro, donde las fuerzas de la naturaleza se vuelven tan intensas e impredecibles que nuestra capacidad para calcular el comportamiento de la materia en estas circunstancias cae a cero. A menudo se menciona en conjunción con la idea de inteligencia sobrehumana en los diálogos de Singularity la noción de acelerar el cambio tecnológico. Algunos han argumentado que a medida que aumenta la pendiente del progreso tecnológico, culminará en una asíntota, visualmente similar a una singularidad matemática.

Sin embargo, esta noción de singularidad no es la misma que Vinge pretendía; refiriéndose a la aparición de inteligencia sobrehumana, junto con velocidades de pensamiento sobrehumanas. (Incluyendo la inteligencia, la capacidad de comprender y crear conceptos, convertir datos en teorías, hacer analogías, ser creativos, etc.) Aunque las inteligencias sobrehumanas que crean inteligencias sobrehumanas adicionales de hecho resultarían en la aceleración del progreso tecnológico, el progreso no sería infinito, en el sentido que sugeriría una singularidad matemática.

Debido a que las inteligencias sobrehumanas serían, por definición, más inteligentes que cualquier humano, es poco probable que nuestra capacidad de predecir de lo que serían capaces con una cantidad determinada de tiempo, materia o energía sea precisa. Una inteligencia sobrehumana podría ser capaz de crear una supercomputadora que funcione a partir de componentes baratos y fácilmente disponibles, o desarrollar una nanotecnología completa con nada más que un microscopio de fuerza atómica. Debido a que la capacidad de una inteligencia sobrehumana para diseñar y fabricar dispositivos tecnológicos superaría rápidamente los mejores esfuerzos de los ingenieros humanos, una inteligencia sobrehumana podría ser el último invento que la humanidad necesita hacer. Debido a su genio sobrehumano y las tecnologías que podrían desarrollar rápidamente, las acciones de las inteligencias que emergen de una Singularidad Tecnológica podrían resultar en la extinción o la liberación de toda nuestra especie, dependiendo de las actitudes de las inteligencias sobrehumanas más poderosas hacia los seres humanos.

El filósofo de Oxford Nick Bostrom, director del Oxford Future of Humanity Institute y de la Organización Mundial Transhumanista , argumenta que la forma en que las inteligencias sobrehumanas tratan a los humanos dependerá de sus motivaciones iniciales en el momento de su creación. Una inteligencia sobrehumana amable, al querer preservar su amabilidad, engendraría versiones amables (o más amables) de sí misma a medida que continuaba la espiral de superación personal. El resultado podría ser un paraíso en el que las inteligencias sobrehumanas resuelvan los problemas del mundo y ofrezcan una mejora consensuada de inteligencia a los seres humanos. Por otro lado, es probable que una inteligencia sobrehumana maliciosa o indiferente produzca más de lo mismo, resultando en nuestra destrucción accidental o deliberada. Por estas razones, la Singularidad Tecnológica podría ser el hito más importante que nuestra especie enfrentará.

Los analistas y defensores de Singularity han propuesto varios caminos hacia la inteligencia sobrehumana. El primero es IA, o amplificación de inteligencia , que toma a un humano existente y lo transforma en un ser no humano a través de la neurocirugía, la interfaz cerebro-computadora, o tal vez incluso la interfaz cerebro-cerebro. El otro es la IA, o Inteligencia Artificial , la creación de un sistema cognitivo dinámico que supera a los humanos en su capacidad para formar teorías y manipular la realidad. Cuando cualquiera de estas tecnologías alcanzará el umbral de nivel de sofisticación necesario para producir inteligencia sobrehumana es incierto, pero una variedad de expertos, incluido Bostrom, citan las fechas dentro del rango 2010-2030 como probable.

Debido a que la Singularidad puede estar más cerca de lo que muchos asumirían, y debido a que las motivaciones iniciales de la primera inteligencia sobrehumana pueden determinar el destino de nuestra especie humana, algunos filósofos-activistas ("Singularitarios") ven la Singularidad no solo como un tema de especulación y discusión, pero como un objetivo práctico de ingeniería que se puede lograr un progreso significativo en la actualidad. Así, en 2000, Eliezer Yudkowsky fundó el Singularity Institute for Artificial Intelligence para trabajar exclusivamente hacia este objetivo.