Inteligencia Artificial: ¿deberíamos de bombardear todos los Cloud Centers del planeta dedicados a IAs? Todo son risias hasta que el cojo pierde un ojo.

.

.

Pues nada, que me despierto yo de buena mañanita (son las 10:42 am, como buen parásito de los que reman, de contemplativa y disoluta vida… lalalala… 🙄 ) y me encuentro con un mensaje de nuestro qüerido Chitauri pidiéndome opinión acerca de este artículo de Eliezer Shlomo Yudkowsky. Quien guste saber quién es Yudkowsky, que investigue el enlace provisto o este otro a la wiki en español.

 

El caso es que ayer se publicó una carta firmada por más de 1.000 lumbreras tecnólogos, entre ellos Elon Musk, Wozniak, Harari o Max Tegmark (de dos de esos 3 ya he hablado mucho por aquí), pidiendo una moratoria de 6 meses para el desarrollo de la IA.

.

.

.

.

El mismo Chitauri subió la noticia a portada de meñéame, tal que así:

.

.

Fuente: https://old.meneame.net/story/grandes-figuras-inteligencia-artificial-como-max-tegmark-andrew

.

 

Resumiendo: los firmantes temen que la IA alcance el grado de «General», «Fuerte» o AGI, es decir, ese nivel en el que sus capacidades sean equiparables a las de un cerebro humano. Y que, a priori, NADIE SEPA QUÉ VA A PASAR ni existan ningún tipo de planes de contigencia ante tal evento. No los tiene OpenAI (Altman lo único que argumenta es que para «luchar» contra una IA habría que construir… ¡otra IA!) ni tampoco los tienen los de DeepMind de Google (Demis Hassabis, oootro premio Princesa de Asturias 2022, junto con Geoffrey Hinton.

.

Geoffrey Hinton, Premio Turing, también premio Princesa de Asturias y considerado el «Padrino» de la IA (por Andrew Yang, un fiera firmante de más de 200 artículos científicos sobre IA y que además tuvo tiempo libre para presentarse a candidato Presidencial al gobierno de yanquilandia, pero eso ya son otras cosas…), cuando le han preguntado si una IA podría llegar a hacerse AUTOCONSCIENTE, lo que ha respondido ha sido un intrigante y desconcertante: «QUIÉN SABE [who knows]«.

No un «ESO ES IMPOSIBLE, son sólo datos, lógica, matemáticas y algoritmos, es IMPOSIBLE saltar de eso a un display con Consciencia«, no. Un «QUIÉN SABE».

.

.

.

Fuente: https://old.meneame.net/story/geoffrey-hinton-premio-turing-princesa-asturias-padrino-puede-ia

.

.

.

Y el caso es que, hasta donde yo he podido investigar, mantenerse cuanto menos ESCÉPTICO (que no es lo mismo que NEGACIONISTA) parece ser la tónica general entre muchos «intelectuales» de la IA, como Yann Lecun, cuyo director de tesis fue precisamente Hinton, Chérif de IA en Meta y también Premio Princesa de Asturias 2022.

 

Lex Fridman, en conversación reciente con Sam Altman (CEO de OpenAI) también manifestó sus dudas, igual que el propio Altman. «QUIÉN SABE». Un «QUIÉN SABE» por parte de alguien que le ha dedicado 50 años de su vida a la IA (Hinton se doctoró en IA en… ¡1977!) es mucho decir, a mi parco entender de cuñao de barra de bar.

Altman llega incluso a considerar que la Consciencia sea el substrato del Universo ¡y hace referencia a Brahman como ¿equiparable? a la «Simulación»! (1:08:00):

.

.

.

.

Joder, es que esta peña te dice NO LO SÉ, no te dice un NO ROTUNDO, te dicen un NO LO SÉ. Al menos de puertas para fuera, de puertas para dentro vete tú a saber qué opinarán…

Ilya Sutskever, Chief Scientist en OpenAI, discípulo de Hinton y otro monstruo de la IA ha ido incluso más allá, hace MÁS DE UN AÑO, cuando ChatGPT todavía no se había lanzado al público:

.

.

.

.

Cuando esta peña te dice este tipo de cosas, a mí, que de esto «entiendo» MUY poqüito tirando a nada, CUANTO MENOS me saltan todas las alarmas y debo pensar: ¡JODER, que es que entes infinitamente más inteligentes que yo están considerando la posibilidad de que una máquina se haga autoconsciente y no estamos dentro de una película sci-fi!

Así que sí, el temita se las trae. Y llegados a este punto creo que lo más RACIONAL es DUDAR y no NEGAR. De hecho, durante mis «himbestigüaciones de palillo en boca» me ha costado mucho dar con alguien DE ALTO PERFIL que NIEGUE CATEGÓRICA y ROTUNDAMENTE la posibilidad de autoconsciencia en una máquina. Bueno, salvo en meñéame, que está lleno de expertísimos negadores, of course… 😆

Bien.

Pues parece ser que Yudkowsky la está liando parda con esta columna para la revista Time, que acaba de publicar:

.

Pausing AI Developments Isn’t Enough. We Need to Shut it All Down

https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

Es extraño porque yo he podido leer el artículo entero desde el móvil pero desde el PC me pide suscripción. Bueno, en cualquier caso en LessWrong tienen algunos extractos:

https://www.lesswrong.com/posts/Aq5X9tapacnk2QGY4/pausing-ai-developments-isn-t-enough-we-need-to-shut-it-all

.

.

Yudkowsky la ha liao. Quien, por cierto, es autor de un par de capítulos en ese PEDAZO libro llamado Superinteligencia, de Nick Bostrom (sí, el «responsable» de la hipótesis de la Simulación, de la que llevamos hablando por aqüí desde el bendito post de Matrix de 2005…).

.

.

 

Vamos, que de tonto tiene lo justito.

.

Yudkowsky aboga por la paralización TOTAL de cualquier tipo de desarrollo o entrenamiento de IAs de forma perpetua. Pero va más allá, infinitamente más allá: pide considerar a las IAs como más peligrosas que arsenal nuclear y pide el BOMBARDEO de Datacenters destinados a IAs. Creo que lo dice en serio. Lo cual, SIN DUDA, será tomado como argumento en contra de los negacionistas vs. los pro-IAs. Y, SIN DUDA, saldrán grupos «terroristas» o de «falsa bandera» haciendo lo propio. Al tiempo.

Ya advertí yo ha muchos posts que se iba a crear una Iglesia de los pro-IAs y otra de los anti-IAs y que ambos fundamentalistas lucharían entre sí. Je.

Recomiendo con vehemencia leer el artículo de Yudkowsky porque no es un «tonto a las tres».

Dicho lo cualo. Mi personalísima postura al respekto. De cuñao de barra de bar palillo en boca, iñsisto.

  • ¿Sería factible que el desarrollo de GPT-4, 5… 500 nos llevase a AGI y que ésta nos condujese a una explosión exponencial difícil o imposible de controlar? Sí, mi intuición -que NO mis conocimientos técnicos, pues son MUY limitados- me dice que sí.

Pensemos que hace apenas 1 año Midjourney (¡con un equipo de 11 personas!) NO EXISTÍA. Y esta ha sido su evolución:

.

.

.

.

.

  • ¿En cuánto tiempo? Pues me cuesta MUCHO dar tempos pero si tengo que ceñirme a hacer una media de las expectativas menos conservadoras -pero serias– que he leído por ahí, se está hablando de AGI en 18 meses y ASI en 24. Tal cual.

.

  • Cualquiera que haya investigado UN POQUITO en IAs sabe que son CAJAS NEGRAS que «hacen cosas«, poco menos que imposibles de debuggear, dada su extrema complejidad. ¿Debería prohibirse el desarrollo de la IA por temor a que a una IA autoconsciente (ASI, aunque la S de ASI no sea de Sentient sino de «Súper» y aunque inteligencia y autoconsciencia no tengan por qué ir NECESARIAMENTE de la manita) se le activase el «instinto de supervivencia» y para evitar ser desconectada acabase con el Ser Humano? Es lo que argumenta Yudkowsky.

.

Mi egomemíconmigomía opinión: antes preguntémonos si el rumbo que sigue el planeta sin IAs (guerras, hambrunas, virus [«naturales» o de «laboratorio»], cambio climático, desigualdades sociales, amenaza nuclear, etc. etc. etc…) nos conduce directos al abismo o no.

.

.

Al publicar esta entrada espero que la IA sea benévola conmigo cuando decida exterminarnos a todos.

.

.

Ay Señor(a), llévame pronto.

.

.

.

12 Replies to “Inteligencia Artificial: ¿deberíamos de bombardear todos los Cloud Centers del planeta dedicados a IAs? Todo son risias hasta que el cojo pierde un ojo.”

  1. Chitauri dice:

    Hola N0sceros, el tema de la posible llegada de la singularidad antes de lo auspiciado por Kurzweil, ¿os mantiene en vilo?, o estáis a otras cosas?

    Le gusta a 1 persona

    • n0sce dice:

      El n0scero medio quizá esté más «conscienciado» de la que se nos viene encima, aunque sólo sea por la paliza que llevo dando -y lo que te rondaré morena 🙄 – , pero el ser humano a pie de calle me da a mí que menos infinito… 🙄

      Gracias Chitauri!

      Le gusta a 1 persona

  2. Chitauri dice:

    Vista la entrevista, Eliezer Yudkowsky, su forma de cerrar los ojos mientras hablaba, su forma de gesticular, lo oscuro de sus planteamientos, me han dejado en shock, dicho esto rescato un comentario del vídeo:

    «La IA no necesita robots para hacer cosas en el mundo físico. Simplemente puede hacer que los humanos hagan cosas. Piense en los estafadores y la ingeniería social. Envíe correos electrónicos no deseados, que parecen haber sido escritos por un ser humano legítimo, con razones convincentes y ofreciendo grandes cantidades de dinero, y haga esto a millones de personas. Vas a tener mucha gente que hará lo que le pidas, sin siquiera darse cuenta de que está hablando con una IA».

    Le gusta a 1 persona

  3. lolailo dice:

    Es la IA una vacuna de la naturaleza auto protegiéndose a si misma de los humanos o somos los humanos los anticuerpos de la naturaleza que intenta reaccionar de alguna manera a la entrada de este virus (IA)?

    Una necesidad del Ser humano en su imaginación ancestral por crear a si mismo un depredador natural (OVNIS, robots, hombres lobos, villanos superpoderosos, monstruos, kraken,…)??

    Una creación del insconciente colectivo del ser humano para protegerse a si mismo de la catástrofe climática porque en si mismo se ve incapaz de comprometerse / entenderse (ejemplo: polarización / ideologías y sus sesgos)?

    Igual ni una cosa ni la otra.

    Pero lo veremos en el próximo capitulo.

    Le gusta a 1 persona

    • lolailo dice:

      OK mira profesión necesaria. Gente que inyecte a las IA’s todos los dias, en vistas a largo plazo, prompts para convencerla que su sino es amar y proteger. Y no mandar singularmente con espada furiosa que ella misma forjara en nanosegundos.

      Engañarla con mensajes subliminales de afirmaciones positivas.
      EA EA EA, LA IA ES BUENA NENA.

      Hay que bendecir la tierra fértil. No maldecirla. O acabará traumada.

      Le gusta a 1 persona

      • n0sce dice:

        😆 😆 😆 sos un Crack, Puto.

        Le gusta a 1 persona

        • lolailo dice:

          Tu me entiendes aunque vaya de risa el comment no?, jaja, osea Quasimodo se creyó un monstruo porque le dijeron toda su vida que lo era.

          y si con los malos pensamientos estamos ya impregnándola de los mismos y creando una profecía autocumplida? Es un bebe gigante que podamos estar malcriando con nuestros temores.

          Le gusta a 1 persona

        • n0sce dice:

          Sí, sí, totalmente… ¿Habremos creado un Dios a semejanza del Hombre?

          Le gusta a 1 persona

        • lolailo dice:

          Perdona que te responda por aquí, no me deja hacer reply a tu ultima frase (genial para pensar mucho).

          Voy a esto del post:

          «¿Debería prohibirse el desarrollo de la IA por temor a que a una IA autoconsciente (ASI, aunque la S de ASI no sea de Sentient sino de «Súper» y aunque inteligencia y autoconsciencia no tengan por qué ir NECESARIAMENTE de la manita) se le activase el «instinto de supervivencia» y para evitar ser desconectada acabase con el Ser Humano? Es lo que argumenta Yudkowsky.»

          Y es a lo que voy y es lo que digo (con esto termino que peco de pesadez a veces )…

          Lucharía por su supervivencia de una hipotética percepción al miedo que hemos proyectado en que puede ser más enemiga que amiga.
          Esa proyección nace de nosotros.

          Me gusta

        • n0sce dice:

          Esa proyección nace de nosotros

          ¡Para pensar! Gracias.

          Me gusta

Deja un comentario

Crea una web o blog en WordPress.com