xHUB.AI

T6.E072. INSIDE X SAM ALTMAN Construyendo el futuro de la AI

Season 6 Episode 72

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 1:21:41

# TEMA 
SAM ALTMAN Construyendo el futuro de la AI

# PRESENTA Y DIRIGE 
🧠Plácido Doménech Espí
⭐Creador de xHUB.AI
🏢CEO MXND.AI : Software + AI
✉️placido.domenech@mxnd.ai

# xHUB.AI
xHUB.AI es una comunidad de Inteligencia Artificial y Ciencias transversales de habla hispana.

# REDES SOCIALES
🌐 youtube : xhubai
🌐 X  :   xhub_ai | placidodomenech
🌐 twitch :   xhub_ai | placidodomenech
🌐 instagram :   / xhub_ai | placidodomenech
🌐 discord : Pídenos acceso mediante DM en redes sociales.

# PODCAST
🎧 buzzsprout : https://xhubai.buzzsprout.com/
🎧 spotify : https://open.spotify.com/show/2SPqvrGGvZkALTy6jSokxI?si=1927a4d04b5145c4
🎧 apple : https://podcasts.apple.com/es/podcast/xhub-ai/id1576725819
🎧 amazon music : https://music.amazon.com/podcasts/e4ff4e8c-4efb-4aed-907e-09b2b1d7aa86
🎧 ivoox : https://go.ivoox.com/sq/1337641

# APÓYANOS
Si te ha gustado nuestro contenido, apoya a la comunidad y el canal de xHUB.AI:
❤️BuyMeACoffe : https://www.buymeacoffee.com/xhubai
❤️Paypal : pladoes@gmail.com
❤️ivoox Podcast : https://www.ivoox.com/support/1337641

# CONTACTAR
¿Quieres anunciarte, alguna propuesta interesante o consulta? Envíanos un correo.
✉️ Correo : xhubai.spain@gmail.com💬

Send us Fan Mail

Support the show

SPEAKER_02

Bienvenidos al podcast de X-Hub AI. Bienvenidos a la nueva era de la inteligencia artificial. Ingeniería de la humanidad. Creación de la humanidad X. La nueva está llegando.

SPEAKER_01

intentes doblar la cuchara. Eso es imposible. En vez de eso, solo procura comprender la verdad.

SPEAKER_00

¿Qué verdad?

SPEAKER_01

Que no hay cuchara.

SPEAKER_04

¿Que no hay cuchara?

SPEAKER_01

Si lo haces, verás que no es la cuchara la que se dobla, sino tú mismo.

SPEAKER_00

Hola amigos,¿qué tal?¿Cómo estáis? Soy Placio Doménech, estamos en un jueves donde tenemos reacción doble otra vez en XABAY. No os acostumbréis mucho porque vienen semanas de mucho trabajo, pero bueno. Cuando aún tenemos energía y ganas y la actualidad está al ritmo que está, pues hay que estar al pie del cañón. Y este programa que vamos a hacer hoy, pues... Vino de casualidad, porque hicimos ayer y antes de ayer dos programas leyendo una noticia publicada de New Yorker que analizaba si Sam Allman estaba creando el futuro, si era alguien de fiar. Y bueno, leímos la noticia completa, que es casi un libro, no sé, pero un capítulo de un libro, sí. Y bueno, podría ser ese capítulo del libro o continuación del libro de Karen Howe, El Imperio de la Inteligencia Artificial y el Imperio de la IA,¿no? Libro que os recomiendo. Igual que el libro de Decadencia de la Humanidad,¿no? de nuestro amigo Roberto, que estuvo en la última Xtalks ahí ayer, que ha sido una Xtalks ahí muy celebrada. Entonces, vi esta charla, pero no... Bueno, la había visto anunciada, pero tampoco había entrado porque Sam Alman me parece un personaje ya... Pero bueno, el CEO de OpenAI. Y vi varios cortos de esta entrevista, algunos publicados por un influencer conocido, español, de la inteligencia artificial, y me pareció tremendo me parecieron tremendas las caras y las personas que participaban y como las intervenciones de Sam Alman muy desdibujado entonces dije bueno es una continuación no sé si el final de la película de terror de Sam Alman y vamos a vamos a ver esa charla que no dura mucho creo que no llega a ver cuánto dura 46 minutos y bueno, vamos a ver qué dice. Vamos a decir dos cositas y la analizamos. Como digo, ayer y antes de ayer estuvimos en dos episodios viendo esa noticia. Con esa portada, que no es mía, es una portada basada en la noticia. Utilizaron esto de Sam Allman con múltiples cabezas. Y bueno, hablamos también de mitos. De Anthropic, de Cloud. Una inteligencia artificial excesivamente peligrosa. Un debate imperdible que El tema de mitos está haciendo mucha pupa a mucha gente. Yo veo a mucha gente nerviosita. Creo que no se va a digerir bien todo el tema de la inteligencia artificial, lo que supone. Me llegan críticas, me llegan también... cosas positivas, el 90% de cosas, 99 casi diría, son positivas. Pero me sorprende... Lo que se está generando alrededor de la inteligencia artificial y también, por qué no decirlo, de X-Hab ahí. Estamos empezando a convertirnos en un canal único, diferente y valiente que trata temas y de una manera que pocos o diría ningún canal trata,¿no? estoy ya barajando la posibilidad de crear un canal exclusivamente técnico o práctico, pero claro no sé si me va a dar la vida con tantas cosas pero bueno vamos a ver con el anuncio que hicieron de Anthropic de la plataforma Managed de agentes es un tema que me interesa al que me dedico todo el tema de implantación de agentes empresa agéntica empresa inteligente y Anthropic y Darío Amodei pues suponen una amenaza y el enemigo para OpenAI acordar en Nueva Delhi como Darío Amodei y Sam Alman no se dan la mano bueno yo creo que es más Darío Amodei quien no le da la mano a Sam Alman Sam Alman como buen diablo se la hubiera dado a Darío Amodei bueno no conocemos y hemos analizado mucho a Darío Amodei pero ahora mismo Darío Amodei es el CEO del momento y de la compañía de IA del momento Anthropic y Cloud Code y todos sus modelos de Cloud especialmente Opus 4.6 es el protagonista Bueno, los InsideX también decir, voy a hacer mucho caso al chat, todo lo que comentéis, siempre con la educación lo voy a contestar,¿vale? Entonces, bueno, todos los que estáis entrando, un saludo. Oscar Francisco Peña, lo haces muy bien, muchas gracias. La verdad es que es cierto, siempre me ha pasado, supongo porque he sido siempre muy competitivo, pero me he fijado más en intentar siempre mejorar, que no las alabanzas, pero se agradece porque esto de no tener a Abuelas, que las echo mucho de menos, bueno, las abuelas y los abuelos,¿no? Tenía cuatro, pero en el COVID, bueno, no vamos a recordar momentos tristes. Dice Andrés López, pregunta, que bueno... Los design de X son así. No pasa nada. Desestructurados y metemos el contenido que sea cuando sea. Pregunta de Andrés López. Dice, no hay elevado riesgo de estar a expensas de la dependencia, de la inteligencia artificial. El coste lo subirán lo máximo posible. Igual llega un momento que no tienes a nadie cualificado para sustituirla. Es que eso no es una posibilidad. No es una pregunta, es una afirmación. Es que esa realidad no es una opción. Ya sé que puedes Es decir, Plácido,¿qué piensas de que eso nos lleve a una dependencia? Bueno, no dependemos de la electricidad, no dependemos de internet, no dependemos del móvil, no dependemos de... Somos seres dependientes de la tecnología.

UNKNOWN

Sí.

SPEAKER_00

Pero está ese otro nivel, otro paradigma.¿Que puede suponer una dependencia muy negativa? Yo creo que sí.¿Pero puede suponer una nueva era humana?¿De progreso? Totalmente.¿Qué es más probable, lo primero o lo segundo? Lo primero.¿Por qué hacemos X Hawaii? Por lo segundo. Bueno, uno de los motivos,¿no? También, bueno, es que me toco cosas que me llegan de otra gente, pero no me voy a dejar intoxicar de... y envidias de mucha gente,¿no? Y harán lo que quieran contigo.¿Conmigo, no?¿Cómo que conmigo, Andrés López? Harán lo que quieran contigo.¿A qué te refieres? Bueno, me abrirán en canal y me reconvertirán a un dios.¿O qué van a hacer?¿Clonarme?¿Hacer fake news?¿Qué es lo que crees que me van a hacer? Pero si ya la sociedad, el humano, ha hecho lo que quiere con los humanos. Nos han llevado al universo en El 26. El 25, no. El 26.¿De qué os quejáis? De la inteligencia artificial como un nuevo fuego prometeo. Esta portada, por cierto, me encanta que la hice, que sale como mitos el prometeo encadenado. Está muy chula la portada. Me encanta la cultura griega y todo este tema. Pero bueno, tienes muchos años por delante, por lo menos 5.000.¡5.000 años! Madre mía, Virgen Santísima. La eternidad, Oscar, la eternidad.

UNKNOWN

La eternidad.

SPEAKER_00

Y el riesgo de que la hackeen y te dé respuestas erróneas y el riesgo de que falle, pero bueno, eso está en cualquier cosa,¿no? Y el riesgo de que nos hackeen o que hayan conseguido lo que han conseguido, tenemos que recordar la pandemia o otros tiempos o los actuales, no hace falta tampoco irse muy lejos. Yo creo que la inteligencia artificial es el nuevo paradigma humano.

UNKNOWN

Eh...

SPEAKER_00

Y bueno, hablando con mi amigo Rafael Monterde, mi hermano, bueno, mi hermano en tono cariñoso no es mi hermano. El verbo de Dios, bueno, él no opina que lo sea, obviamente, sería un debate,¿no?¿Es la inteligencia artificial el verbo de Dios?

UNKNOWN

No.

SPEAKER_00

No sé si esta semana al menos voy a intentarlo, hacer un nuevo episodio de Anticuad Nova, porque tengo muchísimo trabajo que hacer de tema de desarrollo. Pero es verdad que no vamos a dejar que se enfríe el tema y voy a intentar hacer al menos un episodio de Anticuad Nova. Bueno, acordaos que vamos a ver esa construcción de futuro por parte de OpenAI con Sam Alman, esa charla, pero estaría muy vinculado a todo lo que hablamos de ese artículo que publicó La adolescencia de la tecnología que os recomiendo Darío Amodei, que hicimos varios episodios analizando. Y también el tema de la constitución de Cloud tendrá que ver con esa creación de futuro, de cómo las entidades de inteligencia artificial van a ser alineadas. Hicimos también una serie con muchos episodios. Esta portada en concreto me encanta, casi de una inteligencia artificial. No sé si como Jesús escribiendo en la arena pero sí como un hijo perdido en un data center hay imágenes que he hecho no es porque las haya hecho yo, si las viera también de otro esto lo hace la IA pero bueno, es verdad que el gusto estético en algunas portadas me gusta mucho dicho lo cual, vamos al lío este es un programa de la comunidad de inteligencia artificial y ciencias transversales de habla hispana sexta temporada esta temporada y hacemos mucho contenido de Xhava ahí. Me han hecho esta pregunta, pero bueno, por parte de algunos envidiosos que parece que no entienden muchas cosas. Si queréis alguna respuesta la tenéis en la Xtalks ahí de Roberto,¿no? Pero no voy a dar pistas. Pero hacemos mucho contenido de Xhava ahí, no porque me aburra, que no aburro, sino porque me apasiona. Si no me gustara lo que hago,¿creéis que llevaríamos tanto tiempo. Bueno, y hacía cosas antes. Es bastante mayor,¿no? 25, como dijimos ayer.

UNKNOWN

Eh...

SPEAKER_00

como decía Steve Jobs si no te apasiona lo que haces es muy difícil caminar o hacer las cosas o transmitir y comunicar una cierta autenticidad que no significa que no puedas hacer las cosas mejor o te puedas equivocar sexta temporada llevamos 66 o 67 programas no está mal para estar en abril en tres meses casi 20 programas por mes pues está bastante bien eh si queréis entrar a la comunidad de Discord que os aconsejo porque hemos llegado ya a un a un punto crítico de masa crítica que ya va sola la comunidad la gente publica un montón de cosas vamos para 600 miembros y os recomiendo porque como dijisteis ayer una frase que me gustó mucho aunque no la repetí menos cursos de IA de estos influencers tan molones que bueno eso independientemente de lo que sepan de la IA para que Menos cursos y más recursos. Y ahí eso es justo lo que tenéis. Lo voy a poner casi como eslogan. Quien lo haya dicho, lo siento, te lo voy a copiar. Pues eso, en Discord lo que hay son recursos. Bueno, y opinión, a veces suelto cosas personales, y está todo clasificado. Iremos a plataforma. No sé cuándo más fácil ahora con el tema de la guía,¿no? Ayudando en la programación. Pero bueno, me enviáis un mensaje directo o un correo y entráis. Y si os gusta lo que habéis visto, lo que vais a ver, lo que... Lo que conocéis, bueno, acordaos que esta tarde, que no lo he puesto en las slides, pero esta tarde hay programa sobre aceleración, desaceleración, un debate con mucha gente que vamos a opinar sobre, bueno, y este debate viene bien, por el tema del futuro y todo lo que hemos ido viendo, en manos de quien estamos, aceleración, desaceleración, en varios ámbitos, inteligencia artificial, economía digital, economía génica, bueno, en todos los ámbitos. Pues lo dicho, poner me gusta, compartir, Comentad, que lo que más disfruto son los comentarios. Vuestras opiniones, qué os parece. Y suscribíos al canal de YouTube o cualquiera en plataformas de podcast. Y vamos al lío. Bueno, no sé qué pasa con los subtítulos que no van en castellano nunca. Entonces no me comentéis nada. Es que no sé lo que pasa. No sé por qué no van. Pero bueno, dicho lo cual, vamos a empezar.

SPEAKER_03

Buenas tardes a todos y bienvenidos al Foro Open AI. Soy Chris Nicholson y estoy feliz de estar aquí con todos ustedes hoy. El Foro es un lugar para una conversación serio sobre cómo se está usando la IA en el mundo, lo que estamos aprendiendo de eso y cómo más personas pueden ayudar a formar su trayectoria. La conversación de hoy se centra en una de las más grandes preguntas en la tecnología, qué significará cuando los sistemas de IA crezcan dramáticamente más capaces y cómo deberíamos pensar sobre sus implicaciones para la ciencia, el trabajo, nuestra vida la vida juntos y la gobernación. Para discutir eso, estoy acompañado por Sam Altman, cofundador y CEO de OpenAI, Josh Akim, jefe futurista de OpenAI, y Adrienne Agafé, una gran investigadora aquí. Así que comencemos. Sam, el blueprint que lanzamos esta mañana habla mucho sobre la superinteligencia. Una gran pregunta en mi mente es,¿por qué lo estamos haciendo ahora y qué cosas puedes ver desde el interior que deseas que todos

SPEAKER_07

sepan? La razón más grande es simplemente que el ritmo de progreso sigue acelerando y creemos que estamos muy cerca ahora. Y esto no va a ser una cosa de una vez, va a ser, ya sabes, en los próximos años, modelos poderosos que impactarán al mundo de formas importantes. Los investigadores que están trabajando en estos modelos, que hicieron un trabajo increíble con este conjunto de ideas, y estas son destinadas a ser ideas primeras para comenzar una discusión, ya sabes, estoy seguro de que obtendremos ideas mucho mejores porque el mundo debate todas estas cosas, Estamos mirando los modelos que vienen, la pipeline frente a nosotros. Y, ya sabes, podemos estar equivocados, podemos llegar a algo, somos imperfectos, pero dado lo que vemos, esperamos... a ser en un mundo de modelos extremadamente capaces muy pronto. Y luego para el rampa de la capacidad de seguir creciendo. Creo que esto tendrá un gran impacto en la economía, en la forma en que vivimos, en lo que podemos hacer. Y una cosa que he observado al ver que el mundo pasa por un número de transiciones es que cuanto más tiempo el público, nuestros líderes, el sistema político tiene que debatir ideas antes de que realmente tengas que tomar una decisión, más probable eres de tomar una buena decisión. So, starting this now, given what's coming, so that as this becomes a very large

SPEAKER_03

issue of public debate, I think it's important. For sure. And speaking of debate, we brought in a lot of researchers, Adrián, very early in this process. I think it was maybe a unique exercise here in how many researchers were working with the folks who also think about policy a lot. It's closely tied. What was that like for you and

SPEAKER_06

for the research group as a whole? Yeah, you know, I think it was Bueno, fue una experiencia muy interesante. Fue mi primera vez trabajando activamente en un doc de políticas. Creo que fue un poco humillante en algunos casos. A veces, como investigadores, podemos tener estas ideas abstractas de, oh, deberíamos realmente estar pensando en el impacto económico de esto o sobre la política para la seguridad, pero es una cosa pensar sobre esto y otra cosa poner un papel en el papel y pensar en políticas concretas ideas are going to be debated by your peer researchers. So that was an interesting experience for me. I hope... fue muy útil para el producto final, que tuvimos a los investigadores involucrados tan pronto y tan profundamente. Para algo como esto, especialmente ya que es tan avanzado, necesitas, según Sam, necesitas a la gente que está lidiando con esta tecnología todos los días, que sabe cómo construirla, sabe cómo funciona el stack de seguridad y también está viendo la velocidad del progreso. Y una cosa que recuerdo a partir de este proceso en los últimos meses en los que trabajábamos. Muchos investigadores pasaron por una transición de escribir la mayoría de sus propios códigos a tener que escribir la mayoría de sus códigos con la IA. Y creo que, a un cierto punto, les llevó a traer mucha de la urgencia de que esta tecnología es real y importante, moviéndose rápido de una manera que tal vez no todos pueden verlo. Y eso también es parte de tu pregunta anterior sobre por qué ahora, porque estamos viendo una emergencia.¿Puedo

SPEAKER_07

contar una pequeña historia que me recuerda? Había una noche en, supongo, en noviembre o febrero de 2020, cuando los investigadores de OpenAI se obsesionaron con el COVID antes del resto del mundo. Hablábamos todo el tiempo y observábamos los números todos los días y pensábamos que esto iba a suceder. Y, ya sabes, estábamos haciendo planes para ir a trabajar desde casa y hubo algunos artículos que salieron como que nos molestaban porque eran como estas personas locas en OpenAI. Pusimos como un copo o algo en alguno de los abrigos de la puerta porque la gente... Y algunos periodistas escribieron sobre esto. cosas así. Y yo... Y, ya sabes, como que... Hicimos nuestros planes y suponíamos que un descanso iba a ocurrir. Y pensamos, hay algo que está pasando y el mundo no está prestando atención. Y por cualquier razón, algo sobre trabajar en lo exponencial te hace entender las cosas mejor. Así que creo que fuimos un grupo de personas que se encargaron de hacerlo. Y luego hubo una noche muy fría. Vivía en la misión en ese momento. Y pensé, estoy a punto de quedarme en mi casa por un rato. Y voy a hacer una caminata. Una vez más, voy a hacer una caminata porque quién sabe qué va a pasar. Hacía una larga caminata por la ciudad, horas, una noche fría. Estaba viendo a la gente respirando en la cara de los demás, en los restaurantes, en los barrios, por las ventanas. Estaba usando mi mascarilla, mirándome loco. Había otro chico usando una mascarilla y nos gritábamos. Pero además, la vida se sintió totalmente normal. No he sentido eso tan acústicamente como lo hago en este

SPEAKER_04

momento.

SPEAKER_07

Sí. Es como si hubiera un cambio loco. El cambio ya ha pasado. Los modelos ya han llegado a algunos niveles. Bueno,

SPEAKER_00

lo que ha pasado ahora, que es... Voy a comentarlo porque me parece terrorífico. Bueno, lo que comentáis aquí, tienes que reiniciar la página porque... Buenas tardes, tienes que reiniciar la página. No, la reiniciaste. Reiniciado, la has cerrado, la has vuelto a abrir, el navegador. Dice Ed Morales, después de los dos programas anteriores ya no veo a Sam igual, está tratando de manipularnos con su visión. Bueno, totalmente. Bueno, han empezado diciendo, bueno, en un documento que publicaron hace poco, el 6 de abril, Política Industrial para la Era de la Inteligencia, que contiene un documento, bueno, lo leeré si merece programa, pero bueno, van a hablar sobre ello, entonces no sé, pero lo tenéis, el enlace lo publicaron Discord, si queréis, también lo publico en el chat. Pero, bueno, ha sucedido algo que me ha puesto los pelos de punta y me ha cabreado muchísimo, que es, bueno, dicen que pueden equivocarse, pero que quieren generar ese debate político, que es un documento político, y ha hablado el investigador, donde dice, bueno, los investigadores, bueno, también tenemos que intervenir en este tipo de políticas o de documentos, hemos intervenido varios compañeros que entiendo que pueden tener visiones distintas, hablan de una era donde, bueno, de tener tu propio código a que la IA genere el código y en definitiva que la inteligencia artificial es algo real y rápido, muy rápido, pero esa comparación de Sam Allman paseando con su mascarilla en la era del COVID, cuando la gente respiraba cara frente, persona a persona respiraban entre ellos como no habiendo asimilado lo que era la pandemia, el COVID, entre comillas. Ese es el espíritu de crítico que tiene sam alman de lo que pasó en el cob y diciendo que lo que pasa ahora con la inteligencia artificial es muy parecido que la inteligencia artificial va a llegar y la gente está sin mascarilla perdona es decir esto esto me parece que es para no escuchar más a este tipo Yo creo que lo que vivimos en la pandemia no fue una broma y tampoco es lo que esperamos que ocurra en la era de la inteligencia artificial. Entiendo que la analogía viene por el conocimiento o el gap existente entre la gente y la ciencia, en el caso de la inteligencia artificial, entre lo que ocurre y el gran avance y velocidad con respecto a lo que la gente asimila. Pero vamos, me parece que el ejemplo... y eres sensibilidad, dice la mía, por supuesto.

SPEAKER_03

y muchas cosas sobre la ciencia como una forma de hacer eso. Así que si vamos a contrastar esto con el

SPEAKER_07

COVID,¿cuáles son algunas de las cosas muy positivas en el pipeline para nosotros? Lo responderé. Creo que las positivas son muy positivas. Deberíamos hablar más sobre todas las cosas que estamos pensando aquí. Pero como mencionaste la ciencia, si podemos realmente hacer una década de progreso científico en un año, si podemos curar un montón de enfermedades, con medicina personalizada para que la gente encuentre nuevos materiales para hacer energía barata y segura. Si podemos hacer que alguien que pueda crear una idea para una startup y tener el AI implementar y escribir la pieza de software que quiera. Tengo un juego de videojuegos customizado que es lo más divertido para que juegues. Esto es todo maravilloso. Ahora, parte de la razón por la que estoy poniendo esto con urgencia es que hay muchas cosas que vienen que necesitaremos mitigar. Supongo que lo averiguaremos. una persona optimista por la naturaleza, pero también los beneficios de esta tecnología han cambiado mucho las opciones que tenemos frente a nosotros y lo que podemos hacer. Mi primera reacción al leer el blu-ray después de que los investigadores lo escribieron fue como, es asombroso, pero también un poco loco que podemos estar hablando de estos tipos de cosas. Así que tenemos, si la AI es tan buena como pensamos y todas estas cosas maravillosas suceden, también tenemos una herramienta increíble nueva a

SPEAKER_03

nuestra disposición para ayudarnos a mitigar los posibles desventajas. Sí, es una herramienta para todos. Josh, me gustaría preguntarte, creo que hemos hablado de esto como infraestructura social que cambia la forma en que la gente trabaja, aprende y participa en la sociedad.¿Qué responsabilidades tenemos y qué instituciones tenemos para ayudar a la sociedad a prepararse para eso?¿Cómo

SPEAKER_05

lo piensas? Sí, una de las cosas que pienso aquí, y esto vuelve a los beneficios generales para todos, uh for a long time in society we've had this great aspiration that everyone could have you know food shelter electricity uh health care and we've we've always wanted to see there be some kind of nuevo paso en la dirección de ofrecer estos tipos de cosas para todos, para que todos puedan enfocarse en las cosas que son más importantes en sus vidas. Y hemos often been told over and over again, like, you know, actually we can't have that, it's too expensive, there's no way to pay for it. Like, it's nice, but it would be too burdensome to society to do all of that. And I think what AI and superintelligence will unlock is the freedom to do all of it at a much lower cost than has ever been possible. And correspondingly, for the folks of us who are sort of the stewards of the technology, we have a special responsibility to make sure that we actually do fully realize those benefits and be a part of building policies and systems that help working people, middle class people, people in low income countries, really make sure that it benefits everyone and not just the very wealthy. So, those are the things that I think of as key responsibilities here and I'm very excited about it. Plus, the downside risks are also quite serious and there are systemic shocks that could

SPEAKER_03

happen, we have to prepare, we have to be thoughtful, we have to be honest about them. Yeah, so that sounds like a resilience question. And when I look at the document and speak with you folks, it sounds like you think of resilience in layers, right? And a lot of it is not before the AI goes out, but it's also after the AI goes out in terms of our responses to AI and how people are prepared for it. I'd actually like to ask each of you how you think about resilience. Adrián, why don't we start with you?

SPEAKER_06

Sí, creo que tal vez una distinción que me daría es que clásicamente hemos pensado sobre la seguridad y sobre asegurarnos de que ejecutemos evaluaciones de seguridad, de que leemos modelos TEMO, de que implementemos mitigaciones. Y creo que eso, a tu punto de resiliencia y layer, es un layer muy importante que debemos seguir haciendo y seguir expandiendo. Pero al mismo tiempo, Quieres que la sociedad esté preparada para la posibilidad de que, bueno, tal vez habrá algunos actores que harán menos test de seguridad.¿Qué pasa entonces?¿Cómo es la sociedad resiliente a los riesgos de los AIs en estos casos? Tal vez habrá incidentes, a pesar de nuestros test de seguridad, o errores cercanos. En el blueprint hablamos, por ejemplo, de reportes de incidentes que se modelan un poco después de... cómo la industria del avión hace cosas cuando hay un error o algún incidente, como el de un minero, que se reporta a una base de datos para que todas las empresas sepan que esto es un riesgo y quizás aquí hay mitigaciones que se pueden implementar. Hay muchas cosas que pueden suceder a nivel social. Otra cosa sería defender contra los riesgos. Estamos hablando de modelos que pueden codificar mucho mejor ahora. Eso también implica capacidades cibernéticas, como si pudieran ayudar a actores malos a ejecutar ataques cibernéticos. Y creo que parte de la resiliencia es asegurarnos de que hacemos de nuestros sistemas de software más seguros y usamos la IA para hacer estas cosas. Entonces, de nuevo, como dijiste, hay todas estas líneas. Así que es como yo tomo la

SPEAKER_03

Sí,

SPEAKER_07

yo... Creo que nuestro pensamiento de seguridad AI original, y el sentido en general, como lo llamaría el pensamiento de seguridad AI clásico, es que va a haber un muy pequeño número de AIs en el mundo. Lo único que importa es asegurarse de que esos AIs hagan lo correcto y que, a lo largo que se alineen y no hagan cosas inestables, el mundo va a estar bien. Creo que la imagen ahora es más estable, pero más compleja, y van a haber muchos AIs en el mundo. Y no va a... es suficiente para decir que una empresa va a asegurarse de que la AI nunca haga algo que no debería hacer. Pero tendrá que haber una respuesta emergente a través de la sociedad. Adrián habló un poco de esto, pero si tomamos algunos ejemplos de las amenazas que esperamos tener, la ciberseguridad definitivamente será un gran problema. La AI será increíblemente buena en encontrar vulnerabilidades en el software, y creo que el mundo encontrará que su software es mucho más bruto y mucho menos seguro de lo que pensábamos. Los humanos solo tienen capacidad limitada para encontrar los explotos. No es suficiente decir que uno, dos o tres proveedores de modelos van a asegurarse de que sus sistemas no harán esto porque el código es lo mismo. El código es muy útil para ser bueno y ser bueno en escribir código también puede ayudar a encontrar problemas de seguridad. Y, incluso si todos nosotros, de alguna manera, pudiéramos prevenir que nuestros modelos se usen para esto, vendrán modelos de open source pronto que son buenos en el código y, por lo tanto, buenos en los explotos de seguridad. Así que tiene que suceder. es que el mundo tiene que usar estos modelos y puede haber acceso diferencial. Puedes darlo a buenos, conocidos, confiados defensores. Primero, tenemos un programa para eso. Otras compañías harán cosas similares. Y tienes que empoderar a las compañías que defienden el software porque habrá alguna planta de poder que nadie ha entendido el software durante 20 años y nadie puede aplicarlo. Y hay un gran problema con eso y tienes que hacer algo sobre eso. Pero un enfoque de resiliencia aquí es, ok, hay esta nueva cosa en el mundo, hay AI que es muy buena, explica en sistemas de computadoras. Vamos a usar la IA para defenderla. Y eso no es una cosa de una compañía. Eso va a requerir un gran esfuerzo. Si vamos un poco más allá, creo que habrá una versión bio de esto donde, ya sabes, clásicamente la gente ha dicho, bueno, simplemente vamos a restringir nuestros modelos para poder desarrollar patógenos. Alguien, en algún momento, va a usar algún modelo para desarrollar un patógeno. Y el mundo necesita defensa contra eso. Sistemas de detección, tratamientos de respuesta rápida, un montón de otras cosas. Y esto es esto no nos hace salir de la línea de alinear nuestros sistemas y construir sistemas seguros, todavía tenemos que hacer eso, como si tuvieramos una ventaja de tiempo allí, a lo largo de que estemos en la frontera, pero necesitamos que el mundo haga su cosa, que la sociedad tenga esta magia emergente y construya estos labios defensivos, hay muchas amenazas además de esas

SPEAKER_03

dos,

SPEAKER_07

pero eso es

SPEAKER_03

suficiente, ya que tenemos tiempo corto, por supuesto, Josh, tú

SPEAKER_07

has

SPEAKER_00

Bueno, aquí vuelven a comentar el papel en la era COVID de la ciencia. Bueno, no sé el papel de la ciencia y de las empresas farmacéuticas.¿Cuál fue? Yo creo que quedaron retratadas, pero está claro que la inteligencia artificial y el potencial de ella puede cambiar esto. a mejor o a peor, esperemos que a mejor. Dice uno de los ponentes que la inteligencia artificial y la superinteligencia llevarán a tener, pues, como la pirámide de Maslow, las necesidades más básicas, bueno, incluidas internet, series y muchas cosas,¿no? A bajo coste, pero¿cuándo estamos viendo que las cosas de bajo coste llegan cada vez más baratas al usuario? Si es lo contrario.¿Qué estamos viviendo en España cada vez? Las cosas son más caras y las cosas más básicas, la gente cada vez es más pobre a pesar de ser cada vez más barato entonces podemos confiarnos que a pesar de que todo sea más barato va a llegar al ciudadano de a pie o solo llegará al ciudadano de a pie cuando haya sido exprimido al máximo por el poder económico Es que volvemos a lo mismo. Yo creo que la visión de sometimiento es clara. Y habla una cosa Samanman que otra vez incide con el tema de los pinchazos y el COVID, que es el tema de que todo el tema de ciberseguridad, que sabéis que mitos... el proyecto Glasswing de Anthropic está enfocado a eso el peligro de, claro, haber mejorado tanto en software hace que sean muy buenos en ciberseguridad o en la ciberguerra, tanto en ataque como en defensa y dice que de esta parte habrá una versión biológica es decir, que alguien sacará un patógeno, un virus y necesitaremos crear defensas rápidas¿eso a qué nos lleva?¿pandemia 2.0?¿pinchaz 2x10 pero es que ese ejemplo es el que pone también Darío Amodei y ese es el ejemplo que pone también este señor y es el primer ejemplo que ponen también en el proyecto Stargate que es la cura del cáncer y a través de una vacuna¿nos fiamos o no nos fiamos? después, como decís, de los dos episodios de ayer. Pero bueno, en general,¿necesitamos algo descentralizado, transparente y que sea la sociedad o el mundo civil, en su mayoría, con otro tipo de organización, entidades, incluidas las IAS, quienes gestionen esto, o nos vamos a fiar de estos perfiles? Yo es que veo la foto, de verdad, y me causa terror.

UNKNOWN

...

SPEAKER_03

en este sentido¿Cuáles

SPEAKER_05

son tus ideas más emocionantes?¿Qué te gustaría pensar en términos de la respuesta colectiva a la superinteligencia? Sí, por supuesto. Una cosa que diría sobre la resiliencia es que muchos de los problemas que nos preocupan sobre la AI creando nuevas externalidades son problemas y vulnerabilidades que existen en el mundo sin importar si la AI está presente. La AI aumenta la urgencia de la acción. Pero volviendo a la COVID, descubrimos que todos tenían una dependencia mucho más profunda dependencia sobre el funcionamiento de las cadenas de suministro que la mayoría de la gente ya estaba consciente de. Las cadenas de suministro son muy importantes, las cadenas de suministro para la comida, para los productos, para todo lo que sostiene la civilización. Y también, por supuesto, para otros tipos de vulnerabilidades como la democracia. Hemos estado debatiendo durante años cuáles son los riesgos reales cuando la gente está influenciando a la sociedad de manera inapropiada. Y estamos preocupados de que la IA hará que estas cosas sean potencialmente más fáciles de atacar en el futuro porque habrá tools at people's disposal that they haven't had before. I'm excited about the possibility that we can build new institutions and state capacities to use AI to rectify some of these vulnerabilities. We can systematically identify them with AI in ways we couldn't in the past. We can systematically close them in ways we couldn't in the past and we can use AI to scale up efforts to combat certain types of issues in ways where we can potentially make it too expensive for attackers to really do something. So, you know, on cyber and bio Así que estoy optimista de que tal vez podamos construir un ecosistema de defensores que, al mismo tiempo, puedan hacer que sea tan caro para los atacantes tratar de, ya sabes, ejecutar un ataque cibernético que no tendrá tanto incentivo para hacerlo. Y si podemos implementar completamente el lado de la resiliencia biológica de las cosas, no solo para los patógenos que impacten a los humanos, pero especialmente para la cadena de suministros de alimentos. Esta es una en la que tengo como un héroe de hobby en esto y voy a hablar de ella cada vez que tenga la oportunidad. Creo que la gente underentiende la cadena de suministros de alimentos, los riesgos biológicos. Pero podemos usar la I.I. para hacer que resiliente a la escala de una manera que

SPEAKER_03

hoy es costo prohibido. Así que estoy muy emocionado por las cosas que podemos construir allí. Sí. Neat. Una pregunta más. Cuando hablamos de la transición individual para muchas personas,¿qué es lo que parece que el valor cambia? Sé que has estado pensando sobre eso mucho.¿Qué ves sucediendo cuando la gente

SPEAKER_05

transiciona a otras formas de crear valor en una economía de IA? Oh, Dios mío, eso es muy amplio. Creo que la gente tendrá mucho más opportunity to exercise agency. You know, if you can start a new business and have a team of AIs that handle all of the functions of putting the business together, that you have no expertise in yourself, you can get something off the ground an awful lot easier. And so, you know, there are a lot of ways that the economy just fundamentally changes when you give people access and tools to help them do more things than they could have before. Yeah, for sure.

SPEAKER_03

Sam, similar question. You have so much experience with startups, running them and managing them. un combinador o solo estar en el ecosistema por tanto tiempo,¿cómo ves que las startup están cambiando y como nuestro potencial para

SPEAKER_07

adivinar nuevas ideas está cambiando? Estoy obsesionado con tratar de explorar el espacio. No sé exactamente cómo va a ser, pero esta idea de una persona, un equipo muy pequeño, de ser capaz de crear una startup entera, como Josh hablaba bastante rápidamente, All my instincts are there's something deep and important to figure out here. Every time in our industry that the friction cost, whatever you want to call it, of starting a startup has come down a lot, amazing new things have happened. You know, I remember the transition, the one of these transitions that I was doing a startup during was when like basically AWS came out and all of a sudden there was like an idea of a cloud and a small startup didn't have para ir a hacer todas las cosas locas que solías tener que hacer. Manages racks in the closet. Y eso fue como un cambio increíble de lo que puedes hacer como una pequeña startup con pocas personas. Esta que viene es mucho más grande y han habido varias entre ellas. Pero realmente quiero saber cómo se ve cuando una

SPEAKER_04

startup es,

SPEAKER_07

ya sabes, dos o tres personas y un montón de GPUs y puedes

SPEAKER_03

realmente democratizar quién puede empezar una startup. Sí, sí, sí. Es ese aspecto de democratización y se desplaza. a la amplia disponibilidad de la IA.¿Qué es lo mejor para pensar en traer más personas y democratizar el acceso a la IA?

SPEAKER_07

Creo que cuando la gente habla de democratización de la IA, significan dos cosas diferentes. Una es el acceso compartido y asegurarse de que todos puedan usar suficiente IA para mejorar sus vidas, construir cosas para otras personas, todo eso. Y la otra es una especie de voz en donde todo va a ir. Creo que ambos son muy importantes. Parte de por qué hacemos cosas como este Blueprint es si no estamos debatiendo los errores de la sociedad. También parte de la razón por la que realmente lanzamos productos en primer lugar. La gente no tiene el sentimiento para esto. Esto es un requisito para que la gente pueda tener input, pero no es suficiente. También tenemos que tener una manera de que la gente nos escuche y el input es capturado de nuevo en el sistema. Así que ese es uno que creo que es muy importante. Y el otro es que necesitamos poner no solo servicios como ChatGPT, sino los servicios de valor de alta computación de verdad, donde la gente puede empezar una startup o hacer una descubrimiento científico o lo que sea, de manera amplia en las manos de muchas

SPEAKER_03

personas. Sí, y eso va a llevar a nuevos modelos económicos que son mucho más baratos para que se

SPEAKER_07

amplíen,¿verdad? Y eso es un problema de infraestructura, entre otros problemas que se han solucionado. Sabes, habíamos hablado durante años en OpenAI sobre cuándo íbamos a llegar al crunch de la computación, cuándo íbamos a construir suficiente computación para que no estuviéramos tan atrapados. No creo que nunca salgamos de ello. Si hacemos nuestro trabajo, si seguimos conduciendo el costo de la inteligencia hacia abajo y la capacidad de la inteligencia hacia arriba, creo que efectivamente, si eso sucede, El mundo en el que no construimos lo suficiente la infraestructura, creo que obtendrás una concentración de poder y de computación locura porque la gente paga el precio más y más. Así que la única cosa que realmente creo en como una estrategia de democratización a largo plazo es hacer que haya tanta infraestructura disponible y hacer que el modelo sea tan bueno y tan capaz que esperamos llegar a un mundo en el que la gente diga, necesito ayuda con ideas para usar todo este computador. No creo que lo haremos en práctica. Pero creo que si la computación es muy limitada, No, las personas más ricas y las empresas más ricas del mundo van

SPEAKER_03

a bajar el precio a un nivel extremo. Va a ser otro tipo de escasez que es monopolizado. Entonces, más centros de datos es una iniciativa muy egalitaria en el sentido de que pueden hacer que el acceso a la inteligencia

SPEAKER_07

sea más amplio. Yo miraría muchos ejemplos a lo largo de la historia. Una de las mejores cosas que hicimos para realmente aumentar la calidad de vida de la gente fue dirigir el precio de la El precio de energía está muy bajado. El precio de energía está muy bajado. El precio de energía está muy bajado. El precio de energía está muy bajado.

UNKNOWN

Sí.

SPEAKER_06

¿Puedo hacer una reflexión sobre este asunto también? Creo que hemos hablado un poco sobre el acceso amplio a la IA, que creo que es muy importante y puede crear potencialmente muchos nuevos productos que serán muy útil para el mundo, muy útil para la gente. Creo que una cosa que tratamos de pensar también en escribir este blueprint es asegurarnos de que gente ordinaria que tal vez no va a empezar necesariamente, no están dejados detrás de esta tecnología. Creo que esto está relacionado con algo que podríamos hablar, que es cómo la I.A. cambia la composición de la economía, si la mueve más hacia el capital o hacia el trabajo, el trabajo que se hace por la I.A. realmente. Y una de las cosas que hablamos en es cómo modernizar el espacio de gastos para una economía como esta y cómo distribuir esta prosperidad que será creada por esta tecnología. Cómo asegurarnos de que esto sea prosperidad para todos y no como riqueza para una poca gente. Esto es algo que tratamos de abordar en el Blueprint, pero estoy curioso de si podemos hablar de ello aquí también. Totalmente no

SPEAKER_03

deberíamos. de las grandes ideas que vi son los trabajadores coautorizando cómo se desplaza la IA en sus espacios de trabajo. Me gustaría preguntarte sobre eso, Josh. Y también me gustaría preguntarte sobre, más ampliamente, cómo la sociedad puede captar el alcance.¿Cuáles son las formas institucionales que va a tomar?

SPEAKER_05

Pero empecemos con ti, Josh. Claro. En esta pregunta de computación, por un segundo, quiero decir que el problema de la alocación de computación, descubrir qué cosas usamos para computar para ayudar a la gente a hacer con la IA, será probablemente una de las preguntas más importantes en la sociedad. para navegar durante los próximos años, mientras que la computación es relativamente escasa, y deberíamos intentar aumentar la cantidad de computación en el mundo tanto y tan rápido como podamos, para que no tengamos preguntas de trato dolorosas en las que hay algún beneficio extraordinario que podríamos ofrecerle a todos, y nos quedamos con una pregunta difícil en la que alguien dice, bueno,¿cómo vas a pagar por eso? Porque el costo de la computación es tan alto. En el caso de involucrar a los trabajadores en la IA, de hecho, quiero volver y reconocer un elefante en la sala, que es que muchos trabajadores están preocupados por la IA, están preocupados por lo que la IA means for them. They are not immediately excited at the prospect of figuring out, all right, how are we going to use AI in our workplace? They're thinking, oh my gosh, is the AI going to replace me? And what I think is sort of the important first step here is that those of us who are working on AI and who are kind of the stewards for this have to be putting out things like this blueprint document where we say, well, here's how we're going to advocate for policies to make sure that the economy is fair and that you are supported no matter what. And then, given that we've made this level of safety net Ahora podemos hablar de algo donde tú tengas confianza en nosotros. Podemos hablar juntos, tener una buena conversación. Debemos averiguar cómo empoderar a las uniones para tomar decisiones justas sobre dónde y cómo usar la IA. Cómo empoderar a los trabajadores a participar en conversaciones sobre el uso aceptable de la IA en el trabajo. Creo que mucha gente está preocupada por la surveillanza de la IA en el trabajo. Asegurarse de que los trabajadores sean parte de las decisiones sobre esos tipos de cosas se siente muy importante. Y un gran empuje en la literatura de la IA para asegurar que folks get the tools they need to use AI to make their lives better, to start small businesses,

SPEAKER_03

to do all the kinds

SPEAKER_05

of things that will help them

SPEAKER_03

realize the potential. For sure. What are some institutions that

SPEAKER_05

you've considered that allow everyone to capture some of the upside, Josh? So, let's see. For new kinds of institutions, I think capacity to measure pieces of the economy in greater granular depth para que haya respuestas si hay un cambio económico o no. Creo que la IA es una herramienta muy emocionante

SPEAKER_03

para

SPEAKER_05

hacer eso más escalable y menos caro que en el pasado. También creo que hay más instituciones que están entre las corporaciones y los gobiernos, que tienen niveles muy diferentes de responsabilidad, en términos de gobernación. Quizás hay una necesidad de algo con un nivel más entrelazado de responsabilidad que pueda ofrecer... social safety net type services or

SPEAKER_03

something

SPEAKER_05

between the corporate board and the regulators yeah yeah yeah like there's like this can't all just happen in private companies that have very minimal governance and we also don't expect that government which moves fairly slowly is going to do all of it quite quickly and so we sort of maybe need some in between institutions that can help us prototype things this is like a little bit spitballing and I don't think this is like quite covered in the blueprint but you know you asked and so that's I think in the innovative nuance instituciones, creo que podemos

SPEAKER_03

hacerlo. Cool. Sam, institucionalmente,¿cómo estás considerando que la gente pueda

SPEAKER_07

participar en la parte superior? Creo que hablamos ayer de acceso muy amplio y de dar a mucha gente mucha computación. Escuchas ideas como la computación universal o otras cosas con una buena marca, pero realmente lo que significa es que en lugar de la pensión tradicional de que vamos a dar a la gente un tributo mensual o dinero o lo que sea cuando el AI haga todos los trabajos, creo que es mucho mejor decir que en realidad la gente es bastante buena en saber lo que necesitan y bastante creativa sobre cómo usar las cosas, pero si la gente está abocada al acceso a este recurso, eso será un desafío. Yo sospecho que vamos a tener que hacer cambios en cómo pagamos, como en un mundo en el que el AI está haciendo la mayor parte del trabajo intelectual en el mundo, o al menos en el trabajo de hoy. Probablemente vamos a tener que explorar de algún modo para taxar eso en lugar de taxar el ingreso humano en el sentido tradicional. Suspecho que necesitaremos ofrecer nuevos tipos de asistencia transitoria, insurrección de empleo, cosas así. Y suspecho que eventualmente necesitaremos pensar en cómo la gente puede ser una propietaria en el otro lado de todo esto de nuevas maneras. El capitalismo depende de un cierto balance entre el trabajo y el capital. Y si eso se

SPEAKER_04

vuelve

SPEAKER_07

totalmente fuera de juego, entonces el sistema actual no va a funcionar. Y tendrá que haber algo es una especie de revolución. Lo que es, creo que es una pregunta muy abierta. Y, de nuevo, parte del objetivo aquí es traer algunas ideas, pero hay muchas más. Y siempre dejaré algún espacio y diré que tal vez estamos equivocados y tal vez no es necesario cambiar nada y de alguna manera esto funciona diferente de lo que pensamos. Pero, de nuevo, en el espíritu de tratar de usar el tiempo que tenemos para pensar y debatir, parece

SPEAKER_06

que es un buen momento para empezar a crear ideas aquí.¿Puedo decir algo sobre este aspecto de tal vez estamos equivocados? En Blueprint tenemos propuestas sobre modernizar la base de impuestos y hablamos de una semana de trabajo de 32 horas y cosas así. Y creo que hay algo importante aquí sobre intentar crear medidas counterciclicales donde hay una disrupción condicional de la IA, tenemos una insurrección de empleo adicional Tenemos estas medidas como la semana de trabajo de 32 horas, pero creo que es bastante importante para mí que algunas de estas medidas, tal vez algunas de estas medidas sean buenas en el mundo actual, pero creo que muchas de ellas serían bastante disruptivas y realmente estamos hablando de un mundo que cambia mucho. Así que para mí, institucionalmente, algo que necesitamos es pensar en qué son las potenciales disrupciones que pudieran ocurrir de la IA y cuáles son las cosas que podemos implementar mientras vemos que esas cosas vienen para, de alguna manera,

SPEAKER_03

contrarrestar las disrupciones y distribuir los beneficios de manera amplia en ese momento. Sí, y una de las ideas del reporte fue los beneficios

SPEAKER_06

portátiles, ya que los beneficios están conectados a los empleados en América del Norte. Sí. Suena como si hubiera muchas... Correcto, sí, sí. Y este fue, creo, un ejemplo de una de las propuestas más

SPEAKER_07

enfocadas en los Estados Unidos, por supuesto, Creo que es una buena idea. Creo que es insano que ya no tenemos eso. Y el modo en que el

SPEAKER_05

mundo de los beneficios de los Estados Unidos ha evolucionado es realmente malo. Pero

SPEAKER_03

creo que es una buena idea. No uno debería perder su salud si pierde su trabajo. Eso no debería pasar. Agregado. Adrián, dentro de la organización de investigación, estás viendo esta aceleración. Es real para ti. Puedes ver algunos de los progresos científicos.

SPEAKER_00

Vamos a parar en el último tramo. Han hablado de startups. Bueno, están hablando un debate paupérrimo. Ya lo anticipo. Pero bueno, alguna cosa rápida que puedo decir. Cuando han hablado de los ataques, tanto biológicos como de ciberataque, han argumentado el chico de la chaqueta azul que es responsable del futuro, del impacto en el futuro, etc. Que solo lo impide el coste. Es decir, que es muy caro atacar, pero todo tiene un precio. Es decir, que el problema no va a ser hacerlo, que va a ser más accesible, sino que va a tener un coste elevado. luego habla de startups como no Sam Alman que viene de E-Combinator y de invertir en cientos de empresas de tipo startup y otras bueno vamos a una realidad de one person o pequeños equipos de alta productividad la democratización hablan del acceso a la IA de la energía que cada vez sea más barato institucionalmente como va a estructurarse quizás se necesiten esto me ha parecido interesante porque yo estoy bastante alineado con eso van a aparecer nuevas instituciones o organizaciones apolíticas o no políticas, no políticas directamente, que van a actuar como intermediarias entre lo privado y lo público. Es un peligro también ahí, un peligro, pero bueno, sí que estoy de acuerdo en que van a salir otro tipo de organizaciones o entidades que dinamicen y dinamiten quizá el sistema. para evolucionarlo o revolucionarlo. Hablan de, no han hablado de Renta Básica Universal, sino de Universal Basic Compute. Lo comentaremos también en el programa de esta tarde.¿Cómo van a poner impuestos?¿Cómo no? Quizá no directamente al beneficio o a lo que gana un humano, pero verán cómo hacerlo,¿no? En definitiva, muchos servicios como la asistencia, el seguro para un desempleo, como han dicho también, por quedarte sin trabajo no te tiene que costar la salud,¿no? Un bonito mundo,¿no? Hablan del fin del capitalismo o la evolución del capitalismo, de 32 horas de trabajo semanal. Bueno, ese es el mundo al que vamos,¿no? Al mundo feliz sostenido por los... por la... por un tecnofeudalismo impulsado por Agis Asis y por unos estados que más que estados serán poderes fácticos o élites o castas que accedan o que estén en el poder. Es decir, que en vez de ir a un sistema o a un más libre sistema inclusivo e inmeritocrático, pues yo creo que vamos justamente a lo contrario. Vamos a un universo 25 o 26 o 27 donde las ratas serán felices o morirán.

SPEAKER_06

Hemos hablado, creo, de tener un investigador automático en 2028, en otoño de 2028. Marzo de 2028 es el anuncio oficial.¿Qué es eso? Marzo de 2028. Marzo, gracias. Y creo que una cosa útil a pensar aquí es, una vez que tienes a este investigador automático, que es un investigador automático, como AI, capaz de hacer investigación AI, potencialmente tendrás una especie de doble rueda de disrupción, diría yo. Primero de todo, tienes un modelo que es capaz Y eso en sí es disruptivo, pero podría acelerar el progreso de la AI. Y así... No puedo decirte exactamente cuánto progreso tendremos en un año, pero probablemente más que el paso de progreso que hemos hecho hasta ahora. Este es el tipo de ventana

SPEAKER_03

que estamos hablando. Gracias. Estamos en el punto de la conversación en el que abrimos preguntas. No solo yo, sino miembros de la comunidad. Tengo una aquí. Es de Svetlana Romanova. Como la IA se vuelve más capaz,¿cuáles son las cualidades humanas que crees que más importarán

SPEAKER_05

en el futuro? Me gustaría preguntarle a cada uno de ustedes, Josh. Creo que hay cualidades humanas que son inestables y que siempre importarán. Caracterismo, compromiso, esfuerzo, compasión.

SPEAKER_03

Creo que van a importar mucho.

UNKNOWN

Sí. Sam.

SPEAKER_07

Toda esa creatividad, entender lo que la gente quiere, pero voy a compartir una anécdota reciente que me llegó a casa, que las cosas no van al mismo ritmo. Fui a mi primer café de robots. Estaba muy emocionado, pensé que lo iban a disfrutar. Y fue la experiencia más asombrosa. Y pensé que no necesitaba que la barista de Starbucks me sonriera y me preguntara cómo estaba el día. Pensé que no me importaba eso. Y me parece que realmente quiero eso. Y caminar a la pantalla y que el robot haga la cosa. y te daba una deliciosa copa de café, fue como una experiencia

SPEAKER_03

profunda. No quiero esta experiencia. Y pensé que no me importaría. Totalmente. Esas pequeñas interacciones a lo largo

SPEAKER_06

del día, también las aprecio mucho. Bueno, aquí hay una.¿Deberían...? Eso está bien. Bueno, creo que lo que iba a decir está un poco en las líneas de lo que dijo Sam. Y creo que está en el enfoque. Los humanos necesitamos a los demás. Creo que nos preocupamos por otros humanos. De hecho, a un cierto punto, una de las cosas más asombrosas con el desarrollo de la tecnología y los videojuegos de las redes sociales y cosas así es que tal vez nos haya permitido perder un poco la conexión que teníamos. Pero todavía creo que es algo que importa tremendamente a la gente y que van a reconocer esto cada vez más, en realidad, como la I.A. se vuelve más avanzada y pueda hacer algunas de estas otras tareas que requiere una conexión humana. Y eso es algo muy importante que creo que se expandirá. Parece una buena cosa para mí que esto sea un tipo de trabajo,¿verdad? La medicina y todos estos tipos de trabajos en la economía de la salud, la enseñanza. Pero también es importante para nuestras vidas,¿verdad? Y creo que eso para mí va a ser la gran calidad. lo

SPEAKER_03

mejor que eres como persona para otras personas. Sí, concluyo. En América, las cosas como la salud, la salud infantil y la salud adulta son muy

SPEAKER_05

costosas. Aquí hay una pregunta.¿Cómo AI puede expandir el acceso a esos para la gente cotidiana? Josh. Una cosa que estoy muy emocionado es la forma en que AI puede ayudar a ofrecer la mejor salud en el mundo a todos. He oído muchas historias de gente que está navegando el sistema de salud que no sabían dónde go, how to navigate the insurance, what specialists to talk to, and you hear stories of people bouncing around for a diagnosis for years and years and not getting anywhere. You hear about folks who are stuck in a healthcare system where even if you have the most caring, compassionate nurses and doctors, there's not enough time to give everyone the best quality care. And I think that AI is going to make it possible to deliver the best quality care at scale. I don't think it's going to replace doctors. I think it's going to make their workloads manageable, and I think it's going to make it possible for patients to get the best experience

SPEAKER_03

possible

SPEAKER_05

I agree with that a lot of patient empowerment out there

SPEAKER_07

Todos hemos contado historias muchas veces de cosas que hemos visto en las redes sociales sobre la gente. Es como una experiencia de salud increíble. No tengo nada tan increíble, pero lo diré a mí mismo porque al menos me pasó. Recientemente recibí un test de sangre. No hubo nada de serio malo, pero un par de marcas fuera de su rango. Y, ya sabes, te descansas. Hay cientos de cosas y solo miras la lista, pero estás obsesionado por las que están un poco fuera de su rango. Le dije a mi médico, probablemente todos estos estén cercanos, está bien. Lo puse en ChatGPT. Dijo, sí, estás bien, pero aquí es lo que está pasando. y así, toma este suplemento, recibe el test de sangre otra vez al mes, deberías estar bien. Y lo hizo. De nuevo, no estaba tan enfermo, pero el hecho de que pudiera simplemente publicar mi test de sangre y de inmediato obtener la respuesta correcta para una cosa tan compleja fue una experiencia increíble. Y creo que habrá muchas cosas así en la educación de salud y en todas las otras áreas. La salud adulta, esa es una de las cosas en la que creo que queremos que la gente haga eso. Pero habrá muchas maneras de que podamos realmente

SPEAKER_03

bajar el costo de la educación de salud. Por

SPEAKER_06

supuesto, y incluso el aprendizaje

SPEAKER_03

personal.

SPEAKER_06

Pueden ser humanos, pero pueden aprender a enseñar a los individuos,¿verdad?¿Cómo lo piensas? Sí, quiero decir cosas similares, por supuesto. Otra cosa básica en términos de la salud, que espero al menos, es simplemente que la IA pueda ayudar en la investigación médica, y eso es algo básico que haría que la salud sea mejor para la gente. Pero también, ya hablamos del cuidado, y creo que a un cierto punto la IA puede facilitar algunos de los aspectos más burocráticos, francamente, de la salud y ayudarnos a tener más personas actualizando la salud actual para los individuos. Eso parece ser algo positivo. La IA no estaría haciendo esto. es liberar

SPEAKER_03

a la gente para hacer este trabajo. Sí. Hemos hablado mucho sobre el overhang de las capacidades este año, cómo AI ahora es capaz de tantas cosas que la mayoría de la gente no se está enfocando en ellas. Y a veces pienso que es porque se han renunciado al mundo como lo es. Creo que P.G. lo llama la oscuridad. Así que han dejado de considerar que algo mejor es posible. Así que creo que van a empezar a enfocarse en más. y creo que cuando se enfocan en eso, su comportamiento es lo que cambia la sociedad tanto como cualquier breakthrough tecnológico. Es ese momento de adopción. En tus vidas,¿cuáles son los momentos en los que has visto a alguien que se alienta y se da cuenta

SPEAKER_05

de

SPEAKER_03

que puede hacer esto, que no tiene que vivir resignado para las viejas formas?

SPEAKER_05

Um, wait, I've taken a lot of questions first.

SPEAKER_03

Adrian, do you want to take a crack? Now you get

SPEAKER_06

time to think about it. Oh, my God. Wow. Well, yeah. Putting you on the spot. Yeah, maybe I do want time to think about this. But, you know, I mean, to your point, I think it... Creo que es definitivamente el caso en el que la gente toma un rato para adaptarse a nuevas tecnologías. Creo que, a un cierto punto, el overhang de la capacidad podría ser grande en términos de las capacidades en comparación con la cantidad de personas que la están usando. Creo que hay un punto en el que esa es una función de cuánto rápido las capacidades se están mejorando en comparación con cuánto rápido la gente se usa para que las cosas se mejoren.

SPEAKER_07

Tengo un favor a hacer. mencioné. Mi favorito, hay muchas opciones aquí, pero mi favorito de todas es ver a los padres que son coders por entrenamiento, ver a los padres ver a sus niños usar Codex por primera vez. Y un niño que tiene un montón de ideas y no tiene ni idea de lo que son los límites tradicionales o lo que sería difícil o fácil, simplemente empieza a describir un videojuego y tener Codex hacerlo. Y el tipo de viaje creativo que el niño va a pasar. O sea, a menudo ves al niño haciendo esto principalmente por Y el padre es como, eso no va a funcionar. Y luego funciona. Y luego están como, wow, mi niño va a crecer en un mundo en el que él o ella solo espera que esto suceda. Y yo todavía no hubiera pensado en probarlo porque estaba muy seguro de que no funcionaría. Así que verlo a través de los ojos de los padres, que el niño lo haga por primera vez, especialmente

SPEAKER_06

si el padre es un ingeniero de software a través del entrenamiento, es increíble. Es interesante. Y esta es una historia de toda esta época,¿verdad? Los niños siempre saben cómo usar el VCR en los 80 o lo que sea,¿verdad? Sí. Sí. Interesante. Eso

SPEAKER_05

es divertido. Just on the capability overhang and how fast people notice when a capability has arrived, there's an interesting timescale mismatch where people who aren't super in the know on AI have this distant awareness that something is happening. They know there's a product out there. Once every few months, they might check it out. They don't immediately and instinctively probe it to the maximal extent of its capabilities. And they often don't put it on the thinking setting. They don't know that reasoning models have happened. They stay on the default chat model that's right out there. And so they Y te encuentras con esta percepción de que las cosas no se mueven tan rápido como son. Y escuchas a la gente hablar de, bueno, hay alucinaciones, es una locura, está haciendo errores, es inacurado.¿Por qué nos dirían que va a hacer estas cosas geniales? Y este gapo de creencia visceral es, creo, un problema que se va a superar cuando comiencen a ver a otras personas y instituciones que usan AI muy suficientemente en los sentidos de la máxima razonabilidad, en los sentidos más capaces, de maneras que son asombrosas para ellos. Como este ejemplo de videojuego, para la sociedad en general, van a ver que mucha gente recibe diagnósticos que no esperaban que alguien pudiera obtener rápido y que van a actualizarlos. Y creo que eso es un fenómeno interesante, que la escala de tiempo para el progreso de la IA son semanas y meses, y la escala de tiempo para la gente que está actualmente conectándose es como cada medio año o algo así. Y sí, algún gran cambio sucederá cuando la

SPEAKER_03

gente realice la extensión máxima de las capacidades de hoy. Sí, lo creo. El punto que trajiste, Sam, sobre los niños, realmente ilustra para mí qué ventaja las personas creativas tienen. Hay algunas personas que son simplemente una fonte de ideas. Muchas de esas ideas nunca se han dado cuenta. Algunas son científicas, otras son artistas. Muchas son niños. Y se siente como si las puertas de la lluvia estaban abriéndose para ellos. para entender más cosas. Pienso que mencionaste que podrías quemar tu lista de

SPEAKER_07

códigos y no estarás dispuesto a leerlo toda la noche. Necesitamos hacer un modelo que te ayude a... No tengo ni idea. Creo que esto sería una de las cosas más emocionantes a hacer. No creo que sea tan lejos de un modelo. Puedes decir, mira todas mis mensajes de texto, toda mi e-mail, mira mi computadora entera, cualquier cosa que puedas encontrar sobre mí y solo sugiere ideas que he gestionado como fragmentos o que podrían ser interesantes

SPEAKER_03

para

SPEAKER_07

mí. Y luego las construiré.

SPEAKER_03

Sí, sí, concluido. El partner de pensamiento. Veo a mucha gente usando eso. Bueno, creo que terminamos aquí. Así que gracias a todos por estar con nosotros hoy. Y gracias, Sam, Josh, Adrián. Esto ha sido bastante genial. Es mucho divertido, gracias. Sí. Así que las ideas discutidas pueden sonar ambiciosas a ustedes, y son destinadas a ser. but we know that they're also early and exploratory. We're offering them not as a final plan, but as a starting point in a very public conversation with policymakers, everyone in society, to encourage more discussion and research and debate. OpenAI wants this conversation to continue. The company, we are inviting feedback through a new email address. It's newindustrialpolicy, that's all one word, newindustrialpolicy, en OpenAI.com. Por favor, envíenos nuestras mejores ideas. Estamos lanzando un programa piloto de asociaciones y grantos de investigación enfocados por hasta$100,000 en financiación y hasta un millón en créditos de API. Y estamos conveniendo más discusiones en el nuevo workshop de OpenAI en Washington, D.C. en mayo. Así que, gracias de nuevo por ser parte de este foro. Agradecemos el tiempo y el pensamiento que todos estamos brindando a esta conversación y esperamos continuar.

SPEAKER_00

¿Qué podemos decir?¿Esta conversación es de Sam Allman construyendo el futuro de la guía?¿Qué mierda de conversación acabamos de escuchar? Bueno, vamos a decir las últimas cosas que han comentado de las cualidades humanas que tienen que tener los humanos en el futuro. Carácter, esfuerzo, compasión, cuidado, la importancia que puedes tener al prójimo. Y bueno, todo el tema del healthcare, para personas mayores, el coste que va a tener y que las sillas pueden intervenir ahí, lo hemos hablado en muchos programas. Y bueno, el poder de Codex como herramienta, como juguete de los niños, del futuro, del presente, y cómo vamos a... A ver cómo nuevas generaciones se adaptan mucho más rápido que nosotros. Se supone o sin suponer. Vamos a ver algunos comentarios que habéis puesto por aquí. Me ha parecido una auténtica basura. Venga,¿no? Como siempre soy honesto. Intento no... Me ha parecido una conversación muy, muy light. De un texto que leeremos, pero que se lo he visto por encima. Estaba leyéndolo a la vez y me parece flojísimo. Bueno, y esta gente... pretende cambiar el mundo, bueno, no lo sé, pero tienen muchísimo poder, sí que pueden iniciar ese tipo de conversaciones, pero yo, a mí que me perdonen, el tema físico evidentemente no es impedimento para un tema intelectual, pero yo es que solo viendo las caras de los cuatro, cómo se miraban, uno que acachaba la cabeza, otro que parecía un zombie, Sam haciendo esas pausas a lo Elon Musk y mirando al cielo, el otro que parecía que estaba desubicado en una charla de nerds, Vamos a ver qué decís por aquí. Dice Raymond8408, es de psicópata. Este señor tiene un claro objetivo y es ser el mesías de la inteligencia artificial.

UNKNOWN

Eh...

SPEAKER_00

Hay gente que no debería tener tanto poder en sus manos y este es un claro caso, un claro ejemplo. Sí, el perfil es que ya sobresale. No sé si es porque lo vemos diferente o... dice, creo que eso fue antes de que anunciaran mitos, sí fue antes, y si es así deben verse ahora mismo muy superados por Anthropic, totalmente de acuerdo con Ed Morales, totalmente es decir pero bueno, es posterior a las publicaciones y a todo lo que hemos comentado de la constitución, la adolescencia de la tecnología es decir, el nivel de Darío Amodei deja por los suelos a Sam Malman y Open AI de Darío Amodei y Anthropic deja por los suelos a la Sam Allman y es que luego hacen una apuesta en March no sé si son los mejores los que acaban de mostrar pero no hay otra gente parecen sacados del instituto y que están durmiendo que no se hayan lavado la cara aún si es que no han dicho nada Dice aquí, Amarillo Nápoles, me parece increíble que no haya una criba de profesionales para hablar de ciertos temas. Curwell, Suskeder, Amodei, verdaderos expertos en el conocimiento que está sobre la mesa, no meros mercachifles. Bueno, a ver, mercachifles no son tampoco. Vamos a ver. No nos sorprendería. Es como el CTO actual o el responsable técnico de OpenAI, el que casi vomita en la presentación. Tiene una puta máquina. Lo que pasa es que no en algunos escenarios o en momentos, pues es como para tenerlos encerrados en una caja, vamos. Dice, a los dos de al lado de Sam, seguro que le dieron un guión a seguir. Bueno, es que las caras lo decían todo, es que es terrorífico. Me parece un buen programa, fijaos, me parece un buen programa porque es... lo que demuestra es lo que vimos en los dos episodios anteriores, si nos podemos fiar de Samalman o no, o el perfil de Samalman. Y a mí me parece que este señor... Y la compañía OpenAI, cuidado con ella. Lo que pasa es que, como ya leímos, es muy importante. Está metida en todos los sitios y yo no sé si dejarían que cayera. Yo creo que lo sustituirían a Sam Allman por otro, pero cuidado.¿Por quién lo sustituyen? El descrédito de OpenAI. Cuidado con Darío Modey, Anthropic. Cuidado, ya he dicho, con Google, que vendrá. Y XAI, con Elon Musk. Cuidado con XAI. Ya siempre lo he dicho, que es caballo ganador.

UNKNOWN

Eh...

SPEAKER_00

Dice Ed Morales... realmente ellos creen que las farmacéuticas y los hospitales nos van a dar lo mejor a mejor precio. Sí, lo hemos visto. Nos han dado lo mejor. La estocada. Y bueno, admitido por ellos.¿Queremos ver las últimas declaraciones de lo que han dicho? Incluido su cultura cuoc. Ha sido un experimento por BlackRock, etc.¿Por qué no dicen nada? Sam Alman no dice nada de todo esto que realmente sí que es importante y admitiría un pensamiento crítico ante lo que está sucediendo y por lo tanto asumir un rol de liderazgo. Lo que hace es contar un cuento chino, cuatro anécdotas graciosas, con las pausas, las miradas al cielo. Parece que está retrasado. Parece que le falta un hervor. Porque es que hoy en día determinadas palabras pueden herir sus sensibilidades. Dice... poquito memorable de Mr. Salman desde al menos hace un par de años. Está desdibujado este hombre. Está totalmente desdibujado. Está totalmente desdibujado. Si no tiene ni puta idea, yo no lo sé. A ver, es que decir que no tiene ni puta idea, no lo sé. O sea, es gente... Puedo decir,¿y tú qué idea tienes? Ya, pero a ver, es que estoy con amarillo Nápoles. Venga, no tienen ni puta idea. Es que¿qué nos están vendiendo? Pero eso es un descrédito no sé es que claro, no tiene nada que ver bueno, cuando estaba Ailesus Keber Brockman, Miramurati, cuando había un equipo de gente que iban intercambiando roles y discursos Mira, esto que dice Amarillo Nápoles, dice, si le da por la filantropía, bueno, no le da por la filantropía, le da por otra cosa. Y no me refiero a sus gustos sexuales, por supuesto, que es cada uno libre, perfecto, sin problemas, obviamente. No, no, le da por otra cosa. Mirad sus últimas inversiones, pues muy bien, pero poco más tiene que ofrecer. Es decir, lo que veo es que tiene una narrativa y discurso caduco. Este tío se reinventa o está fuera como un cero. Venga, vamos a dejarlo con esta frase que la suscribo. Amodei, Hasabis y Musk están a años luz de estos oficinistas de cartón-piedra. Bueno, realmente puede gustar más o menos a Amodei, que yo no soy mucho de él, me pone nervioso, pero es un tío que los escritos sí, los escritos sí que me gustan. Cuando habla, esos gestos, esas gesticulaciones, cogerse del pelo, Hasabis sí, por supuesto, Musk y bueno, y Lesus Keber,¿no? Lesus Keber, la última parte, la última intervención que tuvo cuidado con la última intervención de Ilya Suskever ya Sam es un tiburón y nada más. A ver, no... Tampoco, tampoco. Es decir, hay cosas que él ha ido narrando y ha participado. La creación de OpenEA y sus escritos previos. Había una narrativa distinta,¿no? Y hay una... No sé, algo... Yo creo que algo está pasando. No en OpenEA y Sam Alman, que también... Será un infierno, habrá muchísima presión,¿no? Pero algo está pasando en cuanto al poder, las narrativas que se utilizan en las grandes tecnológicas con la inteligencia artificial, qué se dice, qué no se dice y cómo se dice, para que la gente vaya aceptando todo eso, o el poder utilice esto a su favor. Porque fijaos que empieza Sam Alman al principio diciendo que la inteligencia artificial es una herramienta, pero no decía que era una entidad, fue el primero que lo dijo, una bestia gpt 5 ahora han vuelto otra vez a lo de la herramienta Y es que creo que se les va de las manos por el impacto que va a tener. Lo que pasa es que Darío Modé y Anthropic han hecho los deberes y han trabajado en muchas cosas de forma paralela que han ganado en reputación y en autenticidad o veracidad o confianza por parte de la gente. No solo con palabras, sino con investigaciones, papers, productos, una línea de trabajo seria. Gustará más o menos. Pero esta gente lo ha hecho al revés. Y cuidado que yo lo he puesto en un chat. Cuidado con Opinion AI. Cuidado con Opinion AI. Ya veremos qué pasa. Bueno, amigos, hay programa doble, entonces a las siete y media, X debate ahí sobre aceleración, desaceleración. Que viene mucha gente, top, entonces tenéis que verlo, os espero a las siete y media. Este ha sido un final terrorífico de la trilogía,¿no? De nos fiamos de esa mal mano o no, que ya sabemos la respuesta. Cada cual actúa en consecuencia. Desde aquí, pues bueno, agradeceros que me hayáis acompañado, como siempre, y nos vemos en un ratín. Voy por café y a ataque. Seguimos. Un

SPEAKER_02

abrazo. Bye. Bye.