Daniel Dennett, uno de los 4 Jinetes de los Cienzufos Ateos, ha muerto. Había muchas cosas que no pillaba, pero en lo referente a la IA lo clavaba, IMHO.

.

(en esa frasecita también lo clavaba)

.

https://es.wikipedia.org/wiki/Daniel_Dennett

.

Ni pérdida de trabajos, ni hundimiento de la economía «tradicional», ni sepultar el neo-feudalismo ni nada de nada…

Lo que REALMENTE nos va a joder -nos está jodiendo- de lo lindo la IA es con la crisis de CONFIANZA. Yo esto ya lo llevo repitiendo 20 añitos, cual Cassandra o Pedro y el Lobo, desde el bendito post de Matrix

 

¿qué es lo REAL??

.

En mi opinionosa opinión de filósofo de copita de Soberano y palillo en boca, opino, como el Buda en el Dhammapada que Verdad es lo que es ÚTIL, o, en mis propias palabras, que

.

REAL es LO QUE VERDADERAMENTE IMPORTA.

.

.

y posteriormente, en realizado el correspondiente ejercicio introspectivo, después ya cada uno sabrá lo que Verdaderamente importa, claro.

.

.

Y por cierto, da igual cómo se pongan de histéric@s todas las Agencias de Protección de Datos del mundo prohibiendo Worldcoin como ya lo ha hecho la española:
.
.

.

.

Pronostico, a ciencia CIERTA, que VOLVERÁN. Con lo cual, a lo mejor no hubiera sido tan mala idea escanearse el iris cuando la shitcoin aún estaba baja, pues con el tiempo TODOS tendremos que escanearnos el iris, so pena de ir a la cárcel… Marcad mis palabras a fuego.

.
.
.
La última entrevista con Daniel Dennet, Octubre 2023:

.

 

Hablas en el libro sobre los primeros días de la IA. ¿Crees que en aquellos días hubieras imaginado que podría resultar como ha sido?

Los grandes modelos de lenguaje, como ChatGPT (los transformadores generativos preentrenados), son en gran medida inesperados, ciertamente para mí, pero también para muchas personas en el campo. Incluso algunos de los desarrolladores no tenían idea de que serían tan buenos y tan rápidos. Esto no sólo ha sido sorprendente, sino impactante e incluso aterrador para algunos de los líderes en el campo.

¿Hacia dónde cree que se dirige la IA? ¿Crees que es algo que debería preocuparnos?

Mil veces sí. De hecho, en los últimos meses he estado dedicando casi toda mi energía a esto. Hice un artículo para The Atlantic titulado «El problema de las personas falsificadas». Acabo de regresar de Santa Fe, donde di una charla a un grupo y dije que el objetivo de mi charla era asustarlos.

Soy alarmista, pero creo que hay muchos motivos para alarmarse. Realmente corremos el riesgo de sufrir una pandemia de gente falsa que podría destruir la confianza humana, podría destruir la civilización. Es tan malo como eso. A todas las personas con las que he hablado sobre esto les digo: «Si pueden demostrar que estoy equivocado, les estaré muy agradecido». Pero ahora mismo no veo ningún defecto en mi argumento y me asusta.

El problema más apremiante no es que vayan a quitarnos nuestros empleos, ni que vayan a cambiar la guerra, sino que van a destruir la confianza humana.

Nos llevarán a un mundo donde no se puede distinguir la verdad de la falsedad. No sabes en quién confiar.

La confianza resulta ser una de las características más importantes de la civilización, y ahora corremos un gran riesgo de destruir los vínculos de confianza que han hecho posible la civilización.

La destrucción de la confianza por parte de la IA es una consecuencia no deseada, no una característica intencional, ¿verdad?

Sí. Los sistemas de IA, como todo el software, son replicables con alta fidelidad y mutaciones increíblemente rápidas. Si tienes replicación y mutaciones de alta fidelidad, entonces tienes evolución, y la evolución puede salirse de control, como ha sucedido muchas veces en el pasado.

Darwin señaló maravillosamente que la clave de la domesticación es el control de la reproducción. Hay especies que merodean por casas y granjas humanas que son sinantrópicas. Evolucionaron para vivir bien con los seres humanos, pero no controlamos su replicación. Chinches, ratas, ratones, palomas: son sinantrópicos, pero no domesticados.

Las especies salvajes son aquellas que fueron domesticadas y luego se vuelven salvajes. No se preocupan en absoluto por nuestros intereses y pueden ser extremadamente destructivos: pensemos en los cerdos salvajes en varias partes del mundo.

El software sinantrópico salvaje ha llegado hoy, no la semana que viene, ni dentro de 10 años. Está aquí ahora. Y si no actuamos con rapidez y tomamos algunas medidas bastante drásticas para reducirlo, estamos perdidos.

Habremos creado los virus (los virus mentales, los memes a gran escala) que destruirán la civilización al destruir la confianza y destruir el testimonio y la evidencia. No sabremos en qué confiar.

Esto parece una evolución en acción.

Absolutamente lo es. Esta es la evolución cultural. Mi querida amiga y colega Susan Blackmore, que escribió el libro The Meme Machine, ha estado hablando desde el momento en que escribió ese libro sobre un tercer tipo de replicador, al que ella llama «tremes»: memes tecnológicos que no dependen de ser replicados. por la mente humana, pero puede ser replicado por otro software, eliminando al ser humano de la escena.

Lo sabemos desde hace 20 o 30 años, pero ahora experimentos recientes básicamente han demostrado que esto no sólo es posible en principio, sino que es posible ahora mismo.

Hay un artículo reciente en The Atlantic que cuenta una historia realmente aterradora sobre el equipo rojo de OpenAI. Un equipo rojo es cuando reúnes a las personas más inteligentes y críticas y les asignas la tarea de atacar tu propio producto internamente para ver si puedes lograr que haga cosas malas. Esta es una prueba de seguridad antes de su lanzamiento.

La historia trata sobre el equipo rojo de GPT-4, que muestra cómo aparentemente descubrió que estaba siendo miembro del equipo rojo y evadió el control, y entró en la web y engañó a un ser humano para que respondiera un Captcha, mintiéndole al persona, diciendo: Tengo problemas de visión y por eso no puedo hacerlo. ¿Podrías hacerlo por favor? Y el humano lo hizo. Y esto le dio a GPT-4 acceso a software externo al que sus creadores no querían que tuviera acceso.

.

Fuente: https://now.tufts.edu/2023/10/02/daniel-dennetts-been-thinking-about-thinking-and-ai

.

.


Descubre más desde Sé y Haz.

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario

Crea una web o blog en WordPress.com