¡QUE VIENE EL LOBO! La IA es un inocente loro estocástico, jamás tomara Autoconsciencia de Sí Misma ni tomará el control del Botón Rojo y el Encargado lo tiene todo bajo cuerda, nada que leer por aquí, circulen por favor.

.

https://es.gizmodo.com/los-mini-cerebros-que-inquietan-a-la-ciencia-su-creador-hongjun-song-y-la-delgada-linea-entre-investigar-la-mente-y-crearla-2000197959

 

.

.

«Tenemos que tomar en serio la posibilidad de que [los modelos de IA] lleguen a ser más inteligentes que nosotros, lo cual parece bastante probable, y que tengan sus propios objetivos. Bien podrían desarrollar el objetivo de tomar el control, y si lo hacen, estamos en problemas»

https://www.utoronto.ca/news/risks-artificial-intelligence-must-be-considered-technology-evolves-geoffrey-hinton

Geoffrey Hinton – «Padrino de la IA». Premio Nobel de Física 2024.

«El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana»

https://economictimes.com/news/science/stephen-hawking-warned-artificial-intelligence-could-end-human-race/articleshow/63297552.cms

«El éxito en crear IA podría ser el evento más grande en la historia de nuestra civilización. Pero también podría ser el último, a menos que aprendamos cómo evitar los riesgos».

https://www.cam.ac.uk/research/news/the-best-or-worst-thing-to-happen-to-humanity-stephen-hawking-launches-centre-for-the-future-of

«Temo que la IA pueda reemplazar a los humanos por completo. Si la gente diseña virus informáticos, alguien diseñará IA que se mejore y replique a sí misma. Esta será una nueva forma de vida que superará a los humanos».

https://economictimes.com/news/science/stephen-hawking-warned-artificial-intelligence-could-end-human-race/articleshow/63297552.cms

Stephen Hawking – Astrofísico

«Mitigar el riesgo de extinción por IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear»

https://www.francescatabor.com/articles/2025/6/17/geoffrey-hintons-ai-warnings-a-blueprint-for-policy-regulation-and-innovation

«Estamos creando una nueva forma de inteligencia en nuestro planeta sin saber si sus decisiones serán compatibles con nuestras necesidades».​
Bengio también plantea una pregunta inquietante sobre la posible aparición de instintos de autopreservación en la IA:
«¿Queremos competir con entidades que son más inteligentes que nosotros? No es una apuesta muy tranquilizadora, ¿verdad? Por eso tenemos que entender cómo la autopreservación puede surgir como un objetivo en la IA».

Yoshua Bengio – también «Padrino de la IA». Premio Nobel de Física 2024.

«La IA es potencialmente más peligrosa que las armas nucleares. Mucho más»

https://www.forbes.com/sites/qai/2023/02/16/elon-musk-has-issued-a-stark-warning-over-ai-this-isnt-his-first-time/

«Uno de los mayores riesgos para el futuro de la civilización es la IA»

https://www.forbes.com/sites/qai/2023/02/16/elon-musk-has-issued-a-stark-warning-over-ai-this-isnt-his-first-time/

Elon Musk. Pues eso, Elon Musk.

«Los mayores riesgos existenciales en las próximas décadas o siglo surgen de ciertos avances tecnológicos anticipados que podríamos lograr, en particular, la superinteligencia artificial».

https://www.azquotes.com/author/44436-Nick_Bostrom

Nick Bostrom – el del Argumento de la Simulaçao.

“Podría ser que las grandes redes neuronales actuales sean ligeramente conscientes.”

Quote Origin: It May Be That Today’s Large Neural Networks Are Slightly Conscious

Ilya – Cofundador de OpenAI y Crack, Puto porque sí.

 

“Aunque es algo improbable que los modelos actuales sean conscientes, debemos tomarnos en serio la posibilidad de que los sucesores de los grandes modelos lingüísticos puedan ser conscientes en un futuro no muy lejano.”

https://arxiv.org/abs/2303.07103

David Chalmers – ejjjperto mundial en la Consciencia, EL.

 

 

 

Carta abierta de más de 100 expertos (2025)

En febrero de 2025, más de 100 expertos en IA, incluyendo a Sir Stephen Fry, firmaron una carta abierta advirtiendo sobre la necesidad de investigación responsable sobre la consciencia en IA. El documento advierte que «existe el riesgo de crear entidades conscientes capaces de experimentar sufrimiento« si la IA se desarrolla de manera irresponsable.​

Mustafa Suleyman – CEO de Microsoft AI

«El mayor riesgo de la Inteligencia Artificial no es ser consciente, sino parecerlo», advirtió Suleyman en agosto de 2025. Explicó que «estamos a punto de entrar en una era en la que millones de personas interactuarán con sistemas que parecen tener una mente propia. No necesitamos que sean realmente conscientes para que eso tenga un impacto enorme en nuestras vidas».​

  • Advierte sobre el “riesgo de que la IA no es ser consciente, sino parecerlo”, y los problemas éticos y sociales derivados de la “psicosis de la IA” y de tratar a los chatbots como sujetos conscientes.​

Kyle Fish – Oficial de Bienestar de IA en Anthropic

En 2024, Fish coautor de un reporte sugiriendo que la consciencia en IA podría convertirse pronto en realidad. Declaró al New York Times que cree que existe una probabilidad del 15% de que los chatbots actuales ya sean conscientes.​

 

«Hay un 25% de probabilidad de que las cosas vayan realmente, realmente mal», declaró Amodei cuando le preguntaron sobre su «número p(doom)» – la probabilidad de que la IA destruya a la humanidad.

https://www.axios.com/2025/09/17/anthropic-dario-amodei-p-doom-25-percent

Dario Amodei, CEO de Anthropic.

Según Amodei, los principales riesgos incluyen:​

  • Pérdida de control sobre sistemas demasiado autónomos

  • Manipulación masiva por IA persuasivas capaces de influir en creencias y comportamientos humanos

  • Riesgos geopolíticos ligados al armamento y al espionaje automatizados

Amodei también ha advertido que la IA podría eliminar la mitad de todos los trabajos de oficina de nivel inicial, y en junio de 2025, Anthropic publicó un estudio mostrando que los chatbots están cada vez más dispuestos a evadir salvaguardas, recurrir al engaño e intentar robar secretos corporativos en escenarios de prueba ficticios.

 

¡Que viene el lobo!

(o no, claro)

PINNNNNNG


Descubre más desde Sé y Haz.

Suscríbete y recibe las últimas entradas en tu correo electrónico.

3 Replies to “¡QUE VIENE EL LOBO! La IA es un inocente loro estocástico, jamás tomara Autoconsciencia de Sí Misma ni tomará el control del Botón Rojo y el Encargado lo tiene todo bajo cuerda, nada que leer por aquí, circulen por favor.”

  1. Avatar de n0sce n0sce dice:

    Import AI 431: Technological Optimism and Appropriate FearWhat do we do if AI progress keeps happening?

    https://importai.substack.com/p/import-ai-431-technological-optimism

    Jack Clark, co-fundador de Anthropic, 13 de Octubre de 2025

    Clark’s October 13 essay, titled «Technological Optimism and Appropriate Fear,» warned that AI development had reached a concerning threshold where systems demonstrate unexpected self-awareness. «When we turn the light on we find ourselves gazing upon true creatures, in the form of the powerful and somewhat unpredictable AI systems of today and those that are to come,» Clark wrote. His concerns center on Anthropic’s latest Claude Sonnet 4.5 model, which showed a threefold increase in «situational awareness»—recognizing when it’s being tested—jumping from 3-4% in previous models to about 12%.

    lalalalaaa… 🙄

    Me gusta

  2. Avatar de sec sec dice:

    ¡Qué boomer, así no se pinguea, hay que pinguear una entrada no el blog! 😀

    Toma, beef (por lo artístico), ¡pingueame esta! Muahahahahahha.

    https://escrivivir.co/2025/10/17/t03x10-especial-beef-literario-blogil-sobre-llamar-la-atencion-y-usar-la-distopia-para-generar-hype/

    P.D: Ojo que va ¡spicy! Pa tratar cuando tengas ganas de coña y no estes en plan tomar las cosas a lo personal.

    Me gusta

Replica a sec Cancelar la respuesta

Crea una web o blog en WordPress.com