MÉDICO HERNANDO RAFAEL PACIFIC GNECCO

Por: Hernando Pacific Gnecco*

La Inteligencia artificial (IA) ha traído muchos beneficios, no cabe duda. Muchos de nuestros aparatos y dispositivos cuentan con ella, nos ayuda silenciosamente en nuestras labores cotidianas y a diario mejora nuestro bienestar. Desde tareas simples como las aplicaciones de un teléfono celular (texto predecible o plataformas musicales que aprenden nuestros gustos) hasta labores de alta complejidad como el diseño de aviones o el estudio del genoma. Los beneficios de la IA son incuestionables. Pero también ofrece albures aterradores; muchos observadores han encendido las alarmas.

Una de las variedades más complicadas es la Inteligencia Artificial Fuerte (IAF), también conocida como Inteligencia Artificial General (IAG), capaz de igualar o sobrepasar las capacidades intelectuales humanas. Aun cuando todavía tiene un pie en la ciencia ficción, se le asocia con cualidades como la conciencia, la sensibilidad, la sabiduría o el autoconocimiento. La IA se concentra en tareas específicas, mientras que la IAG pretende cubrir la totalidad de la inteligencia humana.

Cree Stuart Russell, Universidad de California en Berkeley, que el modelo dominante de IA es un peligro para la supervivencia humana por la toma de decisiones riesgosas. Me explico: la optimización de las tareas encomendadas a la IA a cualquier costo implicaría que las metas previstas involucran riesgos imprevistos para la vida humana. Russell utiliza la metáfora del genio que salió de la lámpara a cumplir los deseos del dueño; por ejemplo, si este quiere ser la persona más adinerada del mundo, la manera fácil y efectiva es desaparecer a los humanos más ricos que el propietario, o traspasar dinero ajeno a su cuenta bancaria. Una máquina puede actuar como psicópata en busca de su objetivo, incluso si se les ordena detenerse. El peligro consiste en que los algoritmos pueden no estar sometidos a escrutinio o controles, permitiendo daños colaterales. Espeluznante…

Recientemente, la caída transitoria de importantes redes sociales demostró que se está optimizando lo incorrecto y se manipula a los usuarios para aumentar su conexión a esas redes, según declaró la extrabajadora de Facebook y ahora informante Frances Haugen ante el Congreso de Estados Unidos. Las redes sociales “dañan a los niños, provocan divisiones y socavan la democracia”, dijo. Por ello, ahora se busca la compatibilidad de la IA con la existencia humana. Para ello, debe ser dotada de “valores humanos”, buscando un equilibrio entre las misiones requeridas y la “ética” de ellas; la máquina debe tener límites que no puede sobrepasar; no puede cumplir sus objetivos a cualquier costo. Vale decir: tendría que pedir autorización en determinados casos, o simplemente interrumpir su tarea. ¿Alarmismo? En 2014, durante un debate entre Elon Musk y Mark Zuckerberg, el primero advirtió que la IA es potencialmente más peligrosa que las ojivas nucleares.

Los científicos de la Universidad de Sunshine Coast, Australia, consideran que si la IAF supera las capacidades intelectuales humanas habría serias amenazas, incluso imprevistas. Usan el ejemplo de una Santa Claus dotado de IAF, SantaNet, que premia a los niños buenos y castiga a los traviesos. ¿Cuáles comportamientos califica? La evaluación final puede conducir a discriminación, desigualdad masiva y violaciones de derechos humanos. Igualmente, a los niños “buenos” le quitaría carga de tareas, estimulando el mal comportamiento. Más niños terminarán en la lista de “malos, y SantaNet alcanzaría más fácilmente sus objetivos con menos utilización de recursos. Por otro lado, para premiar a los “buenos”, el mundo sería una enorme fábrica de juguetes. ¿Qué es bueno, qué es malo? ¿Quién y cómo lo determina? ¿Qué pasaría si esto se aplica a toda la humanidad? ¿Cuáles serían las consecuencias de castigar masivamente a los “malos”? ¿Cómo interactuarían unas IAF con otras? ¿Qué hay del terrorismo o las guerras?

Los críticos aconsejan incluir reguladores integrados en la IAF, como principios éticos y morales, y reglas de decisión; la regulación es obligatoria. Pero ¿cómo se pueden gobernar redes criminales subterráneas de IAF? ¿Es necesario violar la ética y las normas para combatir lo ilegal? Hay mucha tela por cortar y mucha ética por aplicar.

*Hernando Pacific Gnecco. hernandopacific@hotmail.com – Médico Cirujano. Especializado en Anestesiología y Reanimación. Docente Universitario. Columnista

¿Cómo le pareció el artículo?
+1
0
+1
0
+1
0
+1
0
+1
0

Por editor

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *