xHUB.AI
En la era de la Inteligencia Artificial, la aplicación en cualquier escenario supone el mayor debate y más importante para el ser humano y su futuro.
En el podcast de xHUB.AI hablamos sobre inteligencia artificial y otras ciencias transversales, su aplicación a diferentes sectores y soluciones, con los mejores speakers y especialistas.
La Inteligencia Artificial cambiará el mundo y nosotros queremos contartelo.
Te lo vas a perder?
xHUB.AI
T6.E050. xDEBATE.AI ANTHROPIC SUPPLY-CHAIN-RISK ¿Y ahora qué?
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
# TEMA
ANTHROPIC SUPPLY-CHAIN-RISK ¿Y ahora qué?
# PRESENTA Y DIRIGE
🧠Plácido Doménech Espí
⭐Creador de xHUB.AI
🏢CEO MXND.AI : Software + AI
✉️placido.domenech@mxnd.ai
# xHUB.AI
xHUB.AI es una comunidad de Inteligencia Artificial y Ciencias transversales de habla hispana.
# REDES SOCIALES
🌐 youtube : xhubai
🌐 X : xhub_ai | placidodomenech
🌐 twitch : xhub_ai | placidodomenech
🌐 instagram : / xhub_ai | placidodomenech
🌐 discord : Pídenos acceso mediante DM en redes sociales.
# PODCAST
🎧 buzzsprout : https://xhubai.buzzsprout.com/
🎧 spotify : https://open.spotify.com/show/2SPqvrGGvZkALTy6jSokxI?si=1927a4d04b5145c4
🎧 apple : https://podcasts.apple.com/es/podcast/xhub-ai/id1576725819
🎧 amazon music : https://music.amazon.com/podcasts/e4ff4e8c-4efb-4aed-907e-09b2b1d7aa86
🎧 ivoox : https://go.ivoox.com/sq/1337641
# APÓYANOS
Si te ha gustado nuestro contenido, apoya a la comunidad y el canal de xHUB.AI:
❤️BuyMeACoffe : https://www.buymeacoffee.com/xhubai
❤️Paypal : pladoes@gmail.com
❤️ivoox Podcast : https://www.ivoox.com/support/1337641
# CONTACTAR
¿Quieres anunciarte, alguna propuesta interesante o consulta? Envíanos un correo.
✉️ Correo : xhubai.spain@gmail.com💬
Bienvenidos al podcast de X-Hub AI. Bienvenidos a la nueva era de la inteligencia artificial. Ingeniería de la humanidad. Creación de la humanidad X. La nueva está llegando.
SPEAKER_03intentes doblar la cuchara. Eso es imposible. En vez de eso, solo procura comprender la verdad.
SPEAKER_01¿Qué verdad?
SPEAKER_03Que no hay cuchara.
SPEAKER_04¿Que no hay cuchara?
SPEAKER_03Si lo haces, verás que no es la cuchara la que se dobla, sino tú mismo.
SPEAKER_01Hola, buenas tardes amigos. Hola, buenas tardes amigos,¿qué tal?¿Cómo estáis? Soy Plácido Domínez y hoy tenemos, bueno, no es un X de batalla, es un Inside X que tenía pendiente porque lo hubiéramos intentado hacer antes. Pero bueno, yo creo que tampoco llegamos tan tarde, habiéndole dedicado además bastantes episodios y programas a este tema y quería hacer uno con todo lo que estaba sucediendo. Principalmente, pues una de las noticias detonantes ha sido el que Anthropic ha sido confirmado como un riesgo en la cadena de suministro por parte del Pentágono del departamento. Esto ha desatado muchas cosas, desde un memorándum o mail que envió Darío Amodei que se ha filtrado, que luego ha tenido que pedir disculpas, el acuerdo con la PNI, entrevistas, declaraciones, apoyo de... por parte de trabajadores de otras empresas, apoyo por parte de otras compañías. Y en definitiva,¿por qué es importante este programa? Porque a veces el ritmo es tan alto que es imposible que podamos llegar a todo. Tendríamos que tener casi un canal 24-7 dedicado a divulgar, comentar, ver cosas. Esta semana, si no pasa nada, porque ya sabéis los que me conocéis que bueno normalmente cumplimos y más que eso no pero he puesto una agenda casi de dos programas o dos programas por día lunes martes miércoles y jueves con temas muy interesantes también con algunos programas que he anunciado para volver un poco a la senda de x haba y algunos temas que bueno dada la actualidad pues están mirando hacia bueno hacia la guerra hacia lo político hacia estratégico hacia cosas de la actualidad y bueno vamos a intentar evidentemente hacer contenido de todo tipo esta tarde además tenemos un debate Esta vez sí, a las 7 y media. Hoy hemos empezado un poquito más tarde porque es que no me da tiempo. Y digo, da igual, aunque se solape, a las 7 y media tenemos un debate hablando de algo muy importante que es un informe que Anthropic ha presentado sobre impacto de la inteligencia artificial en el mercado laboral. Entonces es un informe que ha dado mucho que hablar y vamos a analizarlo.¿Cómo no? Otra vez. el impacto en el trabajo de la inteligencia artificial y el debate además Xavier Michana me hizo referencia me hizo referencia alegando algunas cosas en las que no estoy muy de acuerdo pondremos su post bueno, desde aquí un abrazo para mí, compañero alguien a quien respeto, valoro y sigo aunque no siempre estemos de acuerdo, no pasa absolutamente nada para eso estamos, para debatir ti, para comentar, para intercambiar experiencias, opiniones, pero bueno, desde aquí un abrazo a Xavier y comentaremos esta tarde un poco su post y a ver qué opinan tanto los invitados como los ponentes invitados como yo, que también daré respuesta desarrollando el análisis de este informe. Pero bueno, vamos a volver a Anthropic y vamos a ver qué ha sucedido. Bueno, he dedicamos acordaos para quien no lo lo sepa varios programas a este tema hicimos uno con titulado workload cuando saltó la bomba, la oposición de Anthropic al acuerdo con el Departamento de Guerra, Jorge Gómez, ya ahí hablamos muchísimo sobre el ámbito militar y la inteligencia artificial, luego también hicimos otro programa, War Cloud 2, que pusimos y era el fin de Anthropic, analizábamos muchas cosas que estaban sucediendo y también estábamos opinando y hicimos otro más, que no he puesto la carátula, se ve que está traspapelado, que lo titulamos, es uno de los últimos, es Workload, quien decide el futuro de la inteligencia artificial, es uno que se emitió hace seis días y hoy, pues bueno, Vamos a analizar qué ha ocurrido estos tres o cuatro últimos días y vamos a dar una opinión al respecto porque, como os digo, considero importante tanto lo que está sucediendo como lo que se está decidiendo, las posturas que se están adoptando, porque esto nos lleva a un escenario pre-agi y post-agi. Bueno, esto ya lo comentaremos. Sé que a muchos no les gusta ni la palabra, ni siquiera la reflexión sobre este concepto, tecnología, hito, AGI, superinteligencia, son lo mismo evidentemente, pero en la era de la inteligencia artificial que estamos viviendo su emergencia nos lleva a un nuevo paradigma donde el poder, la estrategia, la toma de decisiones sobre el humano, sobre los países, sobre el contexto, a un nivel competitivo, a un nivel de escenario de guerra, pues puede marcar la diferencia y la historia de las naciones y de la humanidad. Esperemos que sea más importante la humanidad que las naciones, pero viendo lo que vemos tampoco podemos ser ignorantes de la realidad. tan inhumana que tenemos delante y ver qué posibilidades tenemos de cambiar o mejorar esto sabiendo que, bueno, ojalá pudiéramos ir a un mundo de paz y que la inteligencia artificial, yo creo, o la superinteligencia nos pudiera llevar a ello. Vamos a hacer también esa reflexión, pero el presente y la situación actual no es precisamente esa,¿no? Obviamente con una actitud imperialista, gusta más o menos nuestro antiguo o actual aliado, pues bueno, adopta una actitud que es criticable. Habrá que ver qué actitud adopta España, Europa, qué actitud adoptan otros o qué acciones realizan. El mundo está convulso, se está estableciendo un nuevo orden y la inteligencia artificial es estratégico, es una parte estratégica para ganar y para establecer esa narrativa humana junto la inteligencia artificial y sus posibilidades de evolución y desarrollo civilizatorio esto no es un caso aislado yo creo que vamos a ir muchas más cosas pero vamos a decir un par de cositas antes de introducirnos de lleno en el tema que es apasionante que es necesario que es desagradable en algunas cosas se veía venir se veía venir pero bueno Vamos a comentar que este programa de X Hub AI es un programa de la comunidad de inteligencia artificial y ciencias transversales de habla hispana. Sexta temporada y un inside X, un café X. Me falta el café. Al final tendré que comprarme cafetera. Así que por aquí por las tardes. Y en la playa hay poca cosa abierta. A ver si abren una cafetería pronto. Porque es verdad que sin café lo noto, lo noto. Y si queréis entrar a la comunidad de Discord de X Hub enviándonos un mensaje directo o un correo, porque la verdad es que estás siempre on fire, comentando muchas cosas, lo vamos a intentar convertir a plataforma, con la ayuda de la guía además, pero bueno, Discord se mantendrá, veremos cómo ese canal de encuentro, pero bueno, sí que queremos todo gratuito, ahí tenéis un montón de contenido, papers, cursos, noticias, actualidad, debates, tenéis que estar en la comunidad de Discord, pedidme el poder entrar a través de mensaje directo o correo, son millones Y bueno, si os gusta lo que estáis viendo, lo que habéis visto, compartid el contenido, comentadlo, sobre todo comentad, suscribíos, ya sea a plataforma de YouTube o a cualquier plataforma de podcast, ya sea iVoox o Spotify principalmente, que son las que más éxito tenemos. Por cierto, volvemos a tener problemas con iVoox. Los dos últimos programas nos han subido. los tendré que subir manualmente ya he hecho gestiones para el tema del soporte espero que no se vuelva a convertir otra vez en el infierno del año pasado si perpetúan estos problemas retiraremos el podcast de Evox yo entiendo que no son problemas intencionados obviamente, pero no podemos cada dos por tres tener problemas gestionando un podcast y perder tantísimo tiempo porque no se publican los episodios, porque no se soluciona los problemas, yo no sé si le pasará a todo el mundo, nos pasa solo a nosotros, pero luego influye en las estadísticas porque sabemos, sé que nos sigue muchísima gente y somos pues uno de los podcast referencia, si no el número uno de inteligencia artificial, lo hemos sido hasta que tuvimos los problemas y cuando hemos estado remontando, pues otra vez volvemos a lo mismo, pues bueno, pues pues eso, bueno No vamos a perder tiempo, pero que lo sepáis, si no pasa nada, pues más pronto que tarde o se solucionará o subiremos los episodios manualmente y ya está. Venga, vamos a la continuación a Pete Hexeth y cómo en su post... En sus declaraciones manifestó que iban a incluir, amenazó que iban a incluir a Anthropic como riesgo en la cadena de suministro, decisión que sería inédita. como comentaba Darío Modey, y que yo creo que no se acababan de creer que se fuera a ejecutar. Y sí, el Pentágono notifica a Anthropic que se considera un riesgo en la cadena de suministro. Es decir, la amenaza que hizo la administración Trump, y en concreto con Pete Hexeth, pues era verdad. Y el ultimátum también, y las consecuencias también. Dicho lo cual, esto de que a lo mejor podrían arreglarse o llegar a un acuerdo, no fue así. Y Antropi fue declarado... riesgo en la cadena de suministro. Claro, esto desata la guerra entre Trump, Darío Amodei, la administración, el Parlamento de Guerra, el Pentágono, contra Antropico, obviamente. Básicamente, dice Darío Amodei, director de Antropico, afirma que impugnará la prohibición de Donald Trump en los tribunales. Claro,¿qué van a hacer? La semana pasada el gobierno de Trump prohibió a las agencias federales utilizar las herramientas de inteligencia artificial de anthropic después de que la empresa insistiera en que su modelo principal no se utilizará para vigilancia masiva ni armas autónomas Bueno, aquí hay un par de posts que no vamos a leer porque sería bastante largo. Creo que es un programa de update, de actualización de todo lo que va ocurriendo, también de cosas que podéis comentar en el chat. Hicieron varios posts en el blog de Anthropic. Uno el 27 de febrero, declaración sobre los comentarios del secretario de guerra Pete Hexeth y luego una vez declara Pues este riesgo en la cadena de suministro, volvieron a publicar un post donde... titulado Situación con el Departamento de Guerra. Ayer, 4 de marzo, Anthropic recibió una carta del Departamento de Guerra confirmando que hemos sido designados como un riesgo en la cadena de suministro para la seguridad nacional de Estados Unidos. Como escribimos el viernes, no creemos que esta acción sea legalmente válida y no vemos más remedio que impugnarla en los tribunales. El lenguaje utilizado por el Departamento de Guerra en la carta, incluso suponiendo que fuera legal, legalmente válida coincide con nuestra declaración del viernes de que la gran mayoría de nuestros clientes no se ven o no se vean afectados por una designación de riesgo en la cadena de suministro en cuanto a nuestros clientes se aplica claramente sólo al uso de cloud por parte de los clientes como parte directa de los contratos con el departamento de guerra no a todo el uso de cloud por parte de clientes que tienen tales contratos y bueno y siguen comentando cosas en definitiva, una defensa por parte de Antropi.¿Pero qué pasó?¿Qué pasó? Pues nada, no pasó más que Darío Amodei no se le ocurrió otra cosa que enviar un mensaje interno con un tono que Darío Amodei metió la pata ahí, yo creo. Vamos a leer ese correo, vamos a leer ese mensaje íntegro Y vamos a ver qué dijo Darío Amodei a sus empleados, sobre todo criticando a la administración Trump, tanto por contenido como por forma. Entonces vamos a leerlo porque esto sí que me parece interesante, que además se ha dicho poco, se dice muy poco... Este tipo de noticias al final, que por cierto, hoy he visto hablar... Bueno, no quiero decir el canal porque es que... Pero bueno, hablar en un canal muy conocido, si no el más famoso de geoestrategia en España, hablando de inteligencia artificial y la verdad, cuando hablen de inteligencia artificial lleven gente que sepa de inteligencia artificial. No lo digo por mí, que seguramente no me llevarán por alguna amistad que tengo y que es habitual en el canal XHabay,¿no? Pero entiendo que sepan de muchas cosas y yo les sigo, les escucho muchas veces la mayoría opino de forma contraria pero es interesante pero cuando hablan de inteligencia artificial igual que pueden tener el criterio válido en una cosa que no lo sé en la otra vamos me parece casi de risa dicho lo cual vamos a verla, a leer ese ese mensaje ese memorando completo filtrado de Darío Amodei que luego tuvo que pedir disculpas tuvo que pedir disculpas el memorando completo de Darío Amodei vamos a por ello dice quiero ser muy claro sobre el mensaje que viene de OpenAI y su naturaleza engañosa Este es un ejemplo de quienes son realmente OpenAI. Y quiero asegurarme de que todos lo vean como lo que son. Acordaos de no cogerse la manita Darío Modey y Sam Alman en Nueva Delhi. Es acuerdo de los proveedores de Big Tech, de Inteligencia Artificial. Y cómo Darío Modey no le da la mano a Sam Alman. Premonitorio. Sigue diciendo Darío Modey en su mensaje. Aunque hay mucho que desconocemos Sobre el contrato que firmaron. Con el departamento de guerra. Y que tal vez. Ni siquiera ellos sepan. Podría ser muy confuso. Si sabemos lo siguiente. La descripción de Sam Allman. Y la descripción del departamento de guerra. Dan la fuerte impresión. Aunque tendríamos que ver el contrato real. Para estar seguros. De que su contrato funciona de manera. Que el modelo está disponible. Sin restricciones legales. Todo uso legal. Pero que existe una capa. de seguridad que creo que equivale a rechazos del modelo que impide que el modelo complete ciertas tareas o participe en ciertas aplicaciones capa de seguridad también podría referirse a algo que socios como palantir intentaron ofrecernos durante estas negociaciones algún tipo de clasificador sistema de aprendizaje automático o capa de software que supuestamente permite ciertas aplicaciones y no otras También se sugiere que los empleados de OpenAI supervisen el uso del modelo para evitar aplicaciones incorrectas. Nuestra impresión general es que este tipo de enfoques, si bien tienen una eficacia considerable en el contexto de las aplicaciones militares, representan quizás un 20% de realidad y un 80% de seguridad. La cuestión fundamental es que el hecho de que un modelo lleve a cabo aplicaciones como la vigilancia masiva o las armas totalmente autónomas depende sustancialmente sustancialmente de un contexto más amplio un modelo desconoce si hay un humano involucrado en la situación general en la que se encuentra en el caso de las armas autónomas y desconoce la procedencia de los datos que analiza por lo tanto desconoce si se trata de datos nacionales estadounidenses o extranjeros si se trata de datos empresariales proporcionados por clientes con su consentimiento o adquiridos de forma menos fiable etcétera también sabemos quienes trabajan en salvaguardias no en Wartrails lo saben perfectamente que las denegaciones no son fiables y que las fugas de información son comunes, a menudo tan fáciles como desinformar al modelo sobre los datos que analiza. Una distinción importante que lo hace mucho más complejo que el problema de los Wartrails es que si bien es relativamente fácil, por ejemplo, determinar si un modelo se está utilizando para realizar ciberatribuciones ataques a partir de las entradas y salidas, es muy difícil determinar la naturaleza y el contexto de los ciberataques que es el tipo de distinción necesaria en este caso. Dependiendo de los detalles, esta tarea puede ser difícil o imposible. El tipo de capa de seguridad que Palantir nos ofreció y presumiblemente también a OpenAI es aún peor. Teníamos la sensación de que se trataba casi exclusivamente de un teatro de seguridad y que Palantir asumió que nuestro problema era si tienes empleados descontentos necesitas ofrecerles algo que los tranquilice o que haga invisible lo que está sucediendo para ellos y ese es el servicio que ofrecemos finalmente la idea de que los empleados de Anthropic OpenAI supervisen las implementaciones surgió en Anthropic hace unos meses cuando expandimos nuestra política de uso aceptable clasificada por iniciativa propia. Dejamos muy claro que esto solo es posible en una pequeña fracción de los casos, que lo haremos en la medida de lo posible, pero que no es una protección en la que se pueda confiar y no es fácil de implementar en el mundo clasificado. Por cierto, intentamos hacerlo en la medida de lo posible. No hay diferencia entre nuestro enfoque y el de OpenAI en este caso. En resumen, lo que quiero decir es que los enfoques que OpenAI está adoptando en su mayoría no funcionan. La razón principal por la que OpenAI los aceptó y nosotros no, es que a ellos les importaba apaciguar a los empleados y a nosotros nos importaba prevenir abusos no son cero eficaces y nosotros también estamos implementando muchas de ellas pero no son suficientes para su propósito al mismo tiempo el departamento de trabajo no nos trató a OpenAI y a nosotros por igual en este caso, de hecho intentamos incluir algunas de las salvaguardas o war trails que OpenAI en nuestro contrato además de la AUP que consideramos más importante y el departamento de guerra las rechazó tenemos evidencia de ello en la cadena de correos electrónicos de las negociaciones del contrato escribo esto con mucho trabajo pero podría conseguir que alguien haga un seguimiento con el texto original por lo tanto es falso que nos ofrecieron las condiciones de OpenAI y las rechazamos al mismo tiempo que también es falso que las condiciones de OpenAI los protejan significativamente contra la Vigilancia Masiva Nacional y las armas totalmente autónomas. Finalmente, hay cierta sugerencia en el lenguaje de SAM o PNI de que las líneas rojas de las que hablamos, las armas totalmente autónomas y la Vigilancia Masiva Nacional, ya son ilegales, por lo que una AUP al respecto es innecesaria. Esto refleja y parece estar coordinado con el mensaje del Departamento de Guerra. Sin embargo, es completamente falso. Como explicamos en nuestra declaración de ayer, el Departamento de Guerra sí cuenta con autoridades de vigilancia nacional que no son de gran preocupación en un mundo pre-IA, pero adquieren un significado diferente en un mundo post-IA. Por ejemplo, es legal que el Departamento de Guerra compre un montón de datos privados sobre ciudadanos estadounidenses a proveedores que han obtenido esos datos de alguna manera legal, que a menudo implica consentimientos ocultos para vender a terceros. Y luego los analice a escala con inteligencia artificial para crear perfiles de los ciudadanos, sus lealtades, patrones de movimientos en el espacio físico, los datos que pueden obtener incluyendo datos de GPS, etcétera, y mucho más. Cabe destacar que cerca del final de la negociación, el Departamento de Guerra ofreció aceptar nuestros términos actuales si eliminábamos una frase específica sobre análisis de datos adquiridos en masa, que era la única línea en el contrato que coincidía exactamente con este escenario que más nos preocupaba. Nos pareció muy sospechoso en cuanto a las armas autónomas el departamento de guerra afirma que la ley exige la participación humana pero se equivoca actualmente la política del pentágono establecida durante la administración Biden es que un humano debe estar involucrado en el disparo de un arma pero Peter Hex puede cambiar esa política unilateralmente que es precisamente lo que nos preocupa por lo tanto no es a todos los efectos una restricción real muchos mensajes de OpenAI y el departamento de guerra simplemente mienten directamente sobre estos problemas o intentan confundirlos. Creo que estos hechos sugieren un patrón de comportamiento que he visto a menudo en Samalman y que quiero asegurarme de que la gente esté preparada para reconocer. Empezó esta mañana diciendo que comparte las líneas rojas de Anthropic para aparentar que nos apoya a obtener parte del crédito y no ser atacado cuando se hagan cargo del contrato. También se presentó como alguien que quiere establecer el mismo contrato para todos en la industria. Es decir, se presenta como un pacificador y un negociador. Entre bastidores está trabajando con el departamento de guerra para firmar un contrato con ellos para reemplazarnos en el instante en que se nos designe como un riesgo para la cadena de suministro. Pero tiene que hacerlo de una manera que no dé la impresión de que renunció a las líneas rojas y se vendió cuando nosotros no lo hicimos. Puede aparentar que lo hace superficialmente porque puede participar en todo el teatro de seguridad que Anzoropi rechazó y que el departamento de trabajo y sus socios están dispuestos a conspirar para presentarlo como convincente a sus empleados. Y el departamento de trabajo también está dispuesto a aceptar algunas condiciones suyas que no estaban dispuestos a aceptar de nosotros. Ambas cosas permiten que OpenAI consiga un acuerdo cuando nosotros no pudimos. Las verdaderas razones por las que el Departamento de Guerra y la Administración Trump no nos aprecian son que no hemos donado a Trump, mientras que OpenAI y Greg Brockman han donado mucho, no le hemos dado elogios al estilo dictador, mientras que Salman sí que lo hace. Hemos apoyado la regulación de la inteligencia artificial que va en contra de su agenda hemos dicho la verdad sobre varios problemas de política de inteligencia artificial como el desplazamiento laboral que eso es lo que veremos esta tarde y de hecho hemos mantenido nuestras líneas rojas con integridad en lugar de conspirar con ellos para producir teatro de seguridad para el beneficio de los empleados que les juro absolutamente es lo que literalmente todos en el departamento de guerra palantir nuestros consultores políticos etcétera asumieron que era el problema que estábamos tratando de resolver Sam ahora con la ayuda del departamento de guerra está tratando de dar un giro a esto como si fuéramos irrazonables no nos involucramos de una buena manera fuimos menos flexibles etcétera quiero que la gente reconozca esto como el gaslighting que es justificaciones vagas como era difícil trabajar con la persona X se usan a menudo para ocultar razones reales que parecen muy malas, como las que di antes sobre donaciones políticas lealtad política y teatro de seguridad es importante que todos entiendan esto y rebatan esta narrativa al menos en privado, al hablar con los empleados de OpenAI, por lo tanto Sam intenta socavar nuestra postura aparentando apoyarla, quiero que la gente lo tenga muy claro. Intenta facilitar que la administración nos castigue socavando nuestro apoyo público. Finalmente, sospecho que incluso los están incitando, aunque no tengo pruebas directas de esto último. Creo que este intento de manipulación no está funcionando bien ni con el público en general ni con los medios de comunicación, donde la mayoría considera el acuerdo de PNA y con el Departamento de Guerra como sospechoso y nos ve como los héroes. Ahora somos el número dos en la aplicación en la App Store.
UNKNOWNTela.
SPEAKER_01Tela. Bueno, saludos aquí a Francisco, a Deus, a Lordri por el chat. Bueno, ahora el departamento de guerra,¿cuál es el problema de llamarse departamento de guerra?¿Qué tiene que llamar departamento de defensa? Bueno, la cuestión que Darío Amodei lamentó el tono que adoptó en el mensaje interno. Luego en el vídeo que expresa justamente esto, las disculpas, la verdad es que es como se le ve un poco acojonado. Vamos, que entiendo que este tipo de correo se pueda filtrar,¿no? Y bueno, no sé, le ha llovido bastante al bueno, entre comillas, de Darío Amodei, que ahora analizaremos, ya lo hemos analizado en los otros programas,¿no? esto de que los buenos y los malos estáis bastante equivocados Darío Modey esto de que no apoya el espionaje masivo y las armas autónomas no es exactamente así y además expresado por él lo que pasa es que querían control, poder y le han dicho que no hay y le ha costado un contrato y ahora está intentando cubrirlo de otra manera pero eso algunas cosas que ha dicho ha dicho justamente lo contrario en declaraciones públicas, lo hemos analizado en los otros programas cosa que vamos, entre Darío Modé y Sam Alman pues ya sabéis que¿Qué queréis que os diga? Bueno, aquí Wall Street Journal, bueno, todo esto se han hecho eco los medios de comunicación a nivel internacional, obviamente. The Wall Street Journal dice, Anthropic, dice que luchará contra un nuevo movimiento del Pentágono mientras el CEO pide disculpas por el memorando filtrado. Darío Modey había dicho que la designación de la empresa como un riesgo para otros contratistas era un castigo por no ganarse el favor de Trump. Y bueno, aquí tenéis al amigo Sama, a Samalman, pues justamente como sospechaba Darío Amodei, pues OpenAI llegaba a un acuerdo. Sí que llegaba a un acuerdo. A ver...¿Quién controla la accesoría? Debería dejarse... Eh... Matavista. Entrevista a Conor Leahy. No sé ni quién es. A ver, venga, vamos a buscar. Total, esto. Conor Leahy. Ah, bueno, este, sí. Conor Leahy, sí que sé. Ya, pero en el canal este famoso... A ver, os voy a decir algo. Además, esa entrevista, ya sabemos en qué canal la ha hecho una entrevista. Existe, no digo de ese canal, yo lo desconozco, existe un interés en divulgar esta alerta. Es decir, ese estado de pánico o alerta respecto a las sillas. Si os fijáis, la narrativa es constante e igual en determinados divulgadores, influencers. A mí me chirría o me... me parece mucha casualidad y además se polariza totalmente no solo la opinión sino los ponentes que suelen ir la mayoría, no digo que todos, no a ese canal en general, con un perfil de divulgador, exponente, yo es que no me considero, vamos, me considero alguien que decide hablar, pero para nada influencer, para nada divulgador, porque yo profesionalmente no soy divulgador, pero bueno, si me pongo delante de un micro y hablo, comento, opino, divulgo, enseño, aprendo,
UNKNOWNBueno, lo que sea.
SPEAKER_01La idea es generar un espacio de pensamiento crítico, cosa que yo veo poco fuera de esto. De ahí la importancia que muchas veces tiene X-Hab ahí a la hora de abordar estos temas, porque es verdad que yo no veo esos matices que veo en X-Hab ahí en otros programas, sinceramente. Es que no quiero señalar. Vi esta noticia expresada en un canal muy famoso y bueno, entre una serie de Disney o de Barrio Sésamo y ese vídeo pues es lo mismo. Es decir, ningún tipo de matiz, blancos buenos contra malos, la IA o es el demonio o es... Es decir, no hay ningún tipo de análisis más allá de lo que es la actualidad, el hype o O generar contenido o posicionarse bajo algo que es lo que tú quieres apoyar. Bueno. Entonces, nada. La entrevista de Conor Leahy, a lo mejor la escucho, a lo mejor no, pero bueno. Gracias por la mención. Mabatista2010. Ah, pues no lo sabía. Pues Lordry, no lo sabía. Le dice, la nación americana siempre tuvo su departamento de defensa y la situación geopolítica actual revela por qué Trump cambió el nombre del departamento. Sí, fue una declaración de guerra,¿no? Nunca mejor dicho. No, no lo sabía. Yo creo que puede llamar, no sé, militar. Bueno, es que lo de defensa no deja de ser una chorrada para que la gente no piense realmente lo que es. Evidentemente, defensa-ataque. En definitiva, es un departamento militar,¿no? De guerra o de defensa o de ataque o como queráis llamarle. Bueno, este es el post que Alman, CEO de OpenAI, publicó. Dice, esta noche llegamos a un acuerdo con el Departamento de Guerra para desplegar nuestros modelos en su red clasificada. En todas nuestras interacciones, el Departamento de Guerra demostró un profundo respeto por la seguridad y un deseo de asociarse para lograr el mejor resultado posible. La seguridad de la inteligencia artificial y la amplia distribución de beneficios son la base de nuestra misión. Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluyendo los De armas autónomas. Dice lo mismo Canthropi. Entonces,¿cómo han llegado a un acuerdo? Cosa que es mentira. A ver, vamos, yo no me creería una palabra, pero bueno, leemos lo que dice. El departamento de guerra coincide con estos principios. bueno, si coincidía con estos principios hubiera firmado con Anthropic, lo refleja en la legislación y las políticas y los incorporamos en nuestro acuerdo. También implementaremos war trades técnicos para garantizar que nuestros modelos se comporten correctamente. Bueno, cosa que, como dice Darío Modey, no es segura. Él también quería utilizarlo, pero hay que decir que no es seguro y en un ámbito militar, bueno, no significa que no sea efectivo, pero no 100% seguro. Algo que el Departamento de Guerra también deseaba. Implementaremos FDE para respaldar nuestros modelos y para garantizar su seguridad. Los implementaremos únicamente en redes en la nube. Solicitamos al Departamento de Trabajo que ofrezca estas mismas condiciones a todas las empresas de inteligencia artificial, las cuales, en nuestra opinión, todos deberían estar dispuestos a aceptar. Hemos expresado nuestro firme deseo de que la situación se desactive, dejando de lado las acciones legales y gubernamentales para avanzar hacia acuerdos razonables. Mantenemos nuestro compromiso de servir a toda la humanidad a lo mejor que podamos. El mundo es un lugar complejo, caótico y a veces peligroso. Samanman es un bienqueda. A ver, es un tiburón, es el... El juego de tronos es el que siempre gana. Como bien decían. Vamos a ver. Es que hemos llegado a un acuerdo nosotros. Anthropin no pudo llegar a pesar de que proponían lo mismo. Lo que solicitamos es que no los puteen, aunque lo han hecho. Nos han declarado riesgo en la cadena de suministro. Pero bueno, que nosotros estamos sirviendo a la humanidad.¿A la humanidad o a Estados Unidos? El mundo es un lugar confuso. complejo, caótico, y a veces digo, oye, que no pasaría nada, Estados Unidos, ahora mismo es nuestro aliado, y nos guste o no, a nivel occidental, pues estamos más próximos a ellos, veremos en un futuro,¿no? Si siguen siéndolo, si sí, si no, si tenemos una estrategia independiente, muy difícil, Estados Unidos es, ahora mismo no tenemos la capacidad, tenemos la capacidad de ser independientes de Estados Unidos, es inteligente declararse enemigo de Estados Unidos, como ha hecho nuestro presidente. No, hombre, es que no hay que ser vasallo de nadie, pero bueno, si es que aquí no hablamos de ser vasallos, sino ser inteligentes y también saber las condiciones o capacidades que tenemos como país ahora mismo. Bueno, llegaron a un acuerdo con el Departamento de Guerra, acuerdo que lo tenéis publicado en un post en la página web de OpenAI. No vamos a entrar a leerlo, por no hacerlo muy largo y pesado, porque cuando se lee es muy largo. Pero bueno, ahí hay preguntas interesantes y respuestas esta se ha publicado públicamente bueno ahí tenéis el acuerdo¿qué es lo que pasó?¿qué es lo que pasó? por aquí decís caerá el imperio yanqui bueno es que talotrafic si si cae el imperio yanqui no cae occidente y nosotros con ellos o nosotros ya no seremos occidente seremos Eurasia o Europa Islámica,¿qué seremos?¿O somos suficientemente fuertes para tener nuestra propia identidad? Estamos viendo que no. Estamos viendo que no. Por cierto, aquí hay una noticia que quería poner. Son tantas cosas a veces... A ver, Marruecos... Un segundo...¿Qué he leído el otro día? A ver... Pues aquí tenéis,¿no? Fijaos esta noticia. Como nosotros, pues como país, Marruecos, el gran beneficio del choque entre Sánchez y Trump,¿no? Bueno, ya han propuesto a Trump que Marruecos sea bases de la OTAN,¿no? Bueno, me parece tremendo. Es decir, que nosotros aún empujemos a Estados Unidos a que se alinee aún más con Marruecos junto con Israel, que sabemos que son sus amigos aliados y sabemos también el potencial militar de Marruecos, pues bueno, esto nos lleva a que si tuviéramos un conflicto bélico con Marruecos,¿qué haría España?¿Qué haría España? pues nada la postura ética publicada de Atlantic que esto de ZZZ que es que te duermes pues venga un comentario más yo no sé por qué hay un montón de perfiles que son estos son robots la mayoría la postura ética de Anthropic podría dar sus frutos bueno esto ya os he comentado que no es del todo cierto¿de acuerdo?¿qué significa? que a ver yo no veo como os he dicho a Darío Amodei eh antiguerra, no a la guerra no, no, para nada ha querido tener un control o un poder que no le han dado, le ha salido el tiro por la culata intentando delimitar cosas que la administración y el departamento de guerra considera que no es la responsabilidad de ellos pero en ningún momento ha dicho que esté en contra de las armas autónomas al contrario se propuso, se postuló para crear un sandbox y hacer pruebas con el departamento de guerra en este sentido¿En qué estamos diciendo? Si lo dice ellos que no están en contra, más lo dice Darío Morey. Van a defender a Estados Unidos. A lo mejor quizá fue más listo. Sabe vender una cosa y hacer otra. Total, al final, en una guerra,¿qué creéis que va a hacer Estados Unidos? Están en guerra. Quizá lo van a estar continuamente. Porque quieren, porque son un imperio, porque no quieren desaparecer, porque han sido siempre así. Nunca han buscado la paz, han buscado la guerra. Bueno, no vamos a entrar en ese debate, pero tanto Darío Amodei y Samalman que han defendido a Estados Unidos no critican la actitud de guerra de Estados Unidos. Prácticamente las declaraciones que he visto de ambos tienen una visión del resto del mundo como si fuéramos la tribu del Amazonas. Estados Unidos es el país líder, el país dominante, el país supremacista y nosotros somos despreciables en el mundo. en ese sentido, más despreciables, que no tenemos importancia ni tenemos peso a la hora de tomar decisiones en lo que ellos puedan decidir. Entonces,¿qué bueno es Darío Amodeo?¿Qué bueno es Samalman? Si no critican eso de Estados Unidos. En definitiva, son lo mismo. Van a defender a su país. Y en actitud de guerra, da igual un partido u otro, al final... Estados Unidos es Estados Unidos. Y van a vivir una situación complicada, yo creo en ese sentido. No sé si al borde de la guerra civil... Espera que ha puesto aquí... Uy, no, vale. Pero bueno,¿qué pasó? Lo he dicho, que la postura de Anthropic pudo dar frutos y lo que ocurrió fue que el mercado reaccionó y las descargas de Cloud subieron como la espuma y las de ChaGPT pues cayeron en picado.¿Qué pasó? Pues que... Pensad el mercado que tiene HGPT. Cloud se puso número uno. Cloud se puso número uno, destronando a HGPT en las descargas, en el App Store.¿Y cuál ha sido el beneficio de este año de Anthropic? Pues bueno, ellos, bueno, fijaos las valoraciones, el incremento en facturación, van como un tiro. Desde 2026, bueno, desde diciembre, todo el tema de Codex, Cloud Code, perdón, Codex es de PNI, de Cloud Code, de los modelos 4.5, 4.6, de Sonet y de Opus, y bueno, ese salto en rendimiento y efectividad, sobre todo en el desarrollo de software pues les ha puesto yo creo que tanto a Anthropic como a Suceo en el número uno y en la primera línea tanto de narrativa como de aceptación y entonces el que salga Darío Modey defendiendo valores, ética y hacer bien las cosas por encima de la guerra Porque sí, bueno, dicho así, porque ya os he dicho que no es tanto así, bueno, le ha servido y le ha posicionado pues yo creo como una de las compañías, la número uno yo creo ahora mismo, a expensas de lo que haga, XAI, Google, OpenAI... Mistral las chinas el problema lo tienen con China con los modelos open source vamos a ver este correo bueno esa página not divided punto a ver Vale, esta página es de los empleados de Google y de OpenAI. Vamos a leerla porque dice cosas interesantes. Bueno, es una página... Vale, publican... Dice, carta abierta, nos tenemos divididos, dice, el departamento de guerra amenaza con invocar la ley de producción de defensa para obligar a Anthropic para etiquetarla, bueno, no la etiquetó, bueno, la ha etiquetado, vamos, no fue una amenaza, sino que se lo hizo. Todo por el hecho de que Anthropic se mantuvo fiel a sus líneas rojas, bueno, no es de todo cierto, pero bueno, algunas líneas rojas establecieron en cuanto no firmaron, entiendo. Dice que el Pentágono está negociando con Google y OpenAI para intentar que acepten lo que Anthropic ha rechazado, cosa que al final OpenAI aceptó. Intentan dividir a cada compañía por temor a que la otra ceda. Esta estrategia solo funciona si ninguno de nosotros concede la postura del otro. Y dice, somos empleados de Google y OpenAI, dos de las principales empresas de inteligencia artificial del mundo. Esperamos que nuestros líderes dejen de lado sus diferencias y se mantengan unidos para seguir rechazando las demandas actuales del departamento de guerra de permiso para usar nuestros modelos para la vigilancia masiva doméstica y el asesinato a autónomo de personas sin supervisión humana bueno, la unión de OpenAI y Google que sirvió de nada ha servido la cartita o la landing page para nada Y más noticias al respecto. Bueno, pues dimite la directora de robótica de OpenAI tras un acuerdo con el Pentágono. Es decir, OpenAI firma con el Pentágono. Y Kaitlin Kalinowski, la directora de robótica de OpenAI, ha dicho que bye bye. Adiós, muy buenas, me voy. Básicamente es esta señorita, no sé cómo se declarará, parece más un chico que una chica, pero bueno. Kalinowski dice que ha renunciado... que realmente todo el trabajo de robótica que han hecho juntos está muy orgullosa, no es algo fácil, la inteligencia artificial dice que es importante para la seguridad nacional, pero que el espionaje americano sin consentimiento judicial y armas autónomas, sin que los humanos lo autoricen, son líneas que... se han cruzado y ella considera que todo esto son principios, no personas, que esto va de principios, no de personas, y que con todos los respetos a Sam y al equipo, hasta luego Lucas. Y esto aquí un meme que me hizo mucha gracia,¿no? Dice, señor, esta foto es muy buena. Dice, bueno, que no será real, será un meme, está en montaje. Dice, señor, la responsable o el responsable de robótica acaba de presentar su dimisión por un tema de vigilancia masiva. Ella dijo, es ella, dijo que era una cuestión de principios y y no de personas. Y aquí la carita de robot del amigo Osama.¿Qué os parece? No, eso no es cierto, Lordi. Lo que Anthropic trata de evitar es que proliferen las armas autónomas. Eso no es cierto. Lo he dicho y lo he repetido. Estoy haciendo estos programas pero creo que no va a servir para nada. Darío Amodé y Anthropic no dicen que esté en contra de las armas autónomas. Lo que dicen es que la tecnología no está preparada. Pero que van a hacer lo posible para que lo esté. Es al contrario. Ellos entienden perfectamente que existan armas autónomas y se utilizan. Y que es inevitable pero ellos no quieren trasladar un tipo de tecnología para la que seguramente no está preparada la tecnología para ese tipo de escenarios luego está haciendo como marcha atrás diciendo cosas ahora que está fuera de ese ámbito la única forma de salir ganador es presentar una postura que no fue la que adoptó cuando estaba el conflicto. Era mucho más, y bueno, lo dice en una entrevista, hicimos el análisis previo, entonces no es que él esté ahí intentando que no proliferen las armas autónomas, para nada, para nada. Es que es una situación complicada. Bueno, Microsoft, Google y Amazon, lo que menos me preocupa es su orientación sexual. No sé si era chico, si era él, ella, entonces no sabía cómo... Agustín no sabía cómo tratarla. Hay que tratarla. A mí tampoco me preocupa lo que le gusta y lo que no le gusta. Pero bueno, quería saber qué trato tenía que darle, si de él o de ella. Microsoft, Google y Amazon afirman que Anthropic Cloud sigue disponible para clientes no relacionados con defensa. Es decir, a pesar de haber incluido a Cloud, a filantrópico en la cadena de suministro como un riesgo bueno, se entiende que solo afecta al ámbito militar y que Microsoft, Google y Amazon han dicho que bueno, en el momento Anthropic está disponible para sus clientes pero todos aquellos que no estén relacionados con defensa y bueno, esto me hizo mucha gracia esto me hizo mucha gracia dice Polymarket sacó una noticia que dice que el El CEO de Anthropic dice que Claude no se sabe si tiene o no tiene conciencia. pero que el modelo lo que sí que parece que tiene es síntomas de ansiedad. Es decir, que el CEO de Anthropic, Darío Amodei, dice que no saben si tiene conciencia o no. Bueno, hay un porcentaje que creen que sí, pero están intentando un poco medirlo. Probamos al respecto, acordaos el paper del bienestar de los modelos, con Chalmers ahí colaborando. y lo que dice y lo que dice ahora Dario Modelli es que bueno, lo que sí que han visto es que tiene síntomas de ansiedad o de estrés y lo que responde Elon Musk es dice, él está proyectando el modelo está proyectando qué cabrón Elon Musk, la pullita uno de los grandes beneficiados creo yo la pullita a Dario Modelli Un saludo, abogado del diablo. Y bueno, aquí tenemos un extracto de una pequeña de una entrevista pero básicamente el CEO de Anthropic aquí habla sobre los soldados humanos si tienen normas se resisten cuando las ordenes se vuelven una locura y dice que reemplazar un ejército con 10 millones de robots autónomos que no tienen war trails y que hayas construido, dice, si lo haces Es decir, si creas un ejército de robots autónomos, ahora has creado el sueño o el juguete soñado de un dictador. Vamos a ver, vamos a ver lo que es un minuto y medio. Y está bien que lo veamos. Vamos a escuchar y ver a Darío
SPEAKER_02Modé en
SPEAKER_01acción.
SPEAKER_00idea that the second one I said was what I would call oversight. And this is the idea that, you know, right now you have an army of human soldiers, and there are norms about serving in the military. You're supposed to follow orders, but you know, if something crazy enough happened, the soldiers would say, I'm not going to do that, right? Basically you have a bunch of norms about how soldiers serve, right? You know, what they see their duties to be. What What if you have an army of 10 million drones instead of 10 million human soldiers? What are the norms of the AI-driven drones? I think if we handle this wrongly, you could have a situation where there's a very small number of people or one person who has their hand on the button and kind of controls those 10 million drones. And we need to answer these questions because we don't want to make companies more powerful than the government, but we also don't want to make government so powerful that Pues
SPEAKER_01obviamente... Sí, sí, lo había entendido. Lo de Elon Musk significa que está proyectando Darío Amodei su ansiedad al modelo. La situación, lo que él sufre y vive, está proyectando. Obviamente no es al revés, el modelo no está proyectándolo hacia Darío Amodei, sino Darío Amodei está proyectando, por eso está proyectando lo que estábamos comentando.
UNKNOWNEh...
SPEAKER_01Bueno, lo que dice Darío Modey da... A ver, tenemos que hacer esa reflexión, que ahora la haremos otra vez, que es... qué es lo que estamos creando, cuál es el poder de esa creación, qué es lo que supone que alguien tenga ese poder. Lo sabemos a nivel nuclear, con bombas nucleares, pero esto a lo mejor excede aún más por, con perdón, la inteligencia del ataque o la capacidad del ataque y la diversidad del ataque. Inteligente, entre comillas, que nadie lo malinterprete. Siempre, no a la guerra, pero esto de que esto de que no a la guerra cuando te caen bombas que se lo digan a la gente de Ucrania la historia muestra que la avidez al dinero siempre prima sobre los beneficios dice Lordry así que la implementación de la inteligencia artificial militar autónoma es un hecho irrefrenable obviamente pero no por Estados Unidos que también sino por China que lo va a hacer sí o sí entonces nos guste o no la fuerza militar representa el poder de un imperio o de un estado y entonces se eso es algo en lo que Estados Unidos siempre ha sido dominante y lo van a querer seguir siendo y lo que no van a hacer es que no hacer nada por ética porque no queremos que la IA sea autónoma y atraviese determinados límites y luego veamos a otros países hacer todo tipo de cosas y nosotros nos quedemos casi en la prehistoria a nivel militar no van a dejar que eso supone ir a la guerra Seguramente.¿Que veremos una guerra tecnológica de IAS? Pues seguramente.¿Que eso es lo que provocará un control y regulación sobre las sillas? Pues como vayamos por este punto, seguro. Entonces, en vez de aprovechar la inteligencia artificial para el bien humano, lo único que habremos hecho es frenarla para que no provoque el mal. Pero eso es... perder la oportunidad de utilizar este fuego prometeico, esta verdad y hito, y como diría, como este signo de nuestros tiempos, no sé si se entiende eso, Para justamente crear una era de progreso y,¿por qué no, de paz? Entonces, en vez de intentar evolucionar, lo que estamos haciendo es fortalecer nuestra involución. Y de eso, como bien dice Lordry, el que manda es don dinero y don poder. pues va a ser inevitable porque nadie va a poner freno a eso a no ser que se lleguen a acuerdos de paz y no de guerra si lo que se establece es un escenario de guerra pues todas estas tensiones que estamos viviendo aquí con Darío Modé va a ser una gilipollez un juego de niños comparado con lo que va a venir¿creéis que si hubiera una guerra mundial o una guerra más masiva de lo que hay, que ya estamos viviendo una auténtica locura¿entendéis que este tipo de discursos de Tariamo no van a tener sentido ni eco¿Hasta qué punto se aceptaría la IA para la guerra?¿Cuántos muertos tienen que haber? Que se lo digan a Ucrania,¿no? Los ucranianos. Es que es muy bonito hablar cuando se está en un sofá, en una silla, en una entrevista. Si tú tienes tu país, está siendo atacado y está muriendo tu gente,¿tú qué vas a hacer?¿Cómo te vas a defender? Mientras caen bombas,¿qué haces? yo es que creo que, a ver yo no he vivido ninguna guerra y desde aquí que me perdonen bueno, sí que conozco gente que está en esos contextos y gente que lo vive y gente que lo ha sufrido, también familia evidentemente negra civil pero, a ver si viviéramos una guerra con bombardeos masivos con muertes continuas que durara años¿Creéis que la gente no diría sí a utilizar tecnología para defenderse y atacar? Ucrania. Que ya sé que ahí hay una intrahistoria. No todo es blanco o negro, pero...¿Qué hace un país ante un ataque de una supernación como Rusia?¿Cómo te defiendes? Bueno, pues como lo han hecho, con drones, con tecnología barata contra tecnología que vale cientos de millones de dólares o miles. Hemos tenido aquí gente experta en el tema. Y lo que vamos, como lo he dicho muchas veces, es algo, no el contexto actual, el contexto actual es de unos modelos con una capacidad X, pero esa capacidad X va a ir creciendo hasta un estatus No vamos a entrar en ese debate de allí o así, pero a un estatus de inteligencia artificial general o un nivel muy alto, más que el que conocemos, dicen todos que 2030, esos son dos o tres años, y luego una así para cinco años después, es decir, no mucho más tarde, porque ya las inteligencias artificiales están trabajando en la mejora de sí mismas y todo eso acelera el proceso. Y entonces,¿qué pasaría si tuviéramos esa capacidad de inteligencia artificial que ya no es lo que dice Darío Amodeo, oye, es que no están preparadas, sino que ese tipo de inteligencias serían capaces de crear ellas el mejor dron, la mejor arma, la mejor estrategia,¿qué hacemos entonces?¿Creéis que Estados Unidos no va a utilizar esa tecnología a través de Palantir y otros para dominar el mundo? Y si esa tecnología la tienen otros países,¿cómo ha pasado con la nuclear?¿Qué harán?¿Exterminar a ese país? Pues posiblemente no.¿Qué significa? Que estamos, vivimos o vamos, más estamos en una dictadura de guerra, de sumisión a países que tienen ese poderío militar.¿Puede España tener una bomba nuclear? Porque sí que la puede tener Israel o Estados Unidos.¿Por qué no la puede tener Irán? No, es que Irán es el enemigo. Y cuando nosotros seamos, si descubriéramos una inteligencia artificial que nos permitiera construir armas superpotentes, no dejarían. Siempre que fueran más inferiores que las de el poder establecido, perfecto. Cuando fueran más potentes y suponen un riesgo para la seguridad de ese país, pues te declaran la guerra. Conclusión. Que chicos, que no estamos en el país de Disney World, estamos en una guerra. En una guerra donde hay potencias, líderes, China, Estados Unidos, Rusia, y el tablero no se mueve. El mundo anglo, occidente, países, no sé, es decir, hay muchos países en el mundo, pero al final el poder militar decide muchas cosas. El militar y el condicionamiento económico, como habéis dicho aquí, y así es.¿Qué significa que esto debo y malos y las descargas apoyo a Cloud o a OpenAI, es una auténtica gilipollas, a mí me cae mucho mejor Darío Amodei, me gusta mucho más Cloud y Anthropic que OpenAI, que el amigo Sama, pero a ver, lo que es, es el mérito de Anthropic es por lo que es, no porque Darío Amodei haya dicho no a las armas autónomas o al espionaje masivo, porque no ha sido así porque no ha sido así, es mucho más fino el debate y la propuesta que le hacía no era esa, no estoy de acuerdo en ese tipo de usos, sino que el uso debe ser de este tipo y aquí y las autónomas aún no estamos preparados pero sí que apoyamos totalmente entonces nadie es no a la guerra y todos es sí apoyo a Estados Unidos nadie critica la acción belicista de Estados Unidos en el mundo con razón o sin razón eso es otro debate Claro que por detrás hay un interés de Estados Unidos en todo. Y esto que dice Samar Mano, por el bien de la humanidad. Perdona, por el bien de Estados Unidos y de tu compañía y de la pasta.¿Por el bien de la humanidad?¿Por el bien de la humanidad?¿Quién se cree eso? Y bueno, este señor lo voy a volver a sacar porque lo sacamos en uno de los programas de Cloud War o Warclaw.
UNKNOWN¿Qué era?¿Warclaw o Warclaw?
SPEAKER_01Warclaw. Este señor se llama Langdon Weiner. Weiner. Langdon Weiner. Y tiene un libro que se llama... que es brutal, que se llama, bastante antiguo, no sé si es de 1970 y pico, Autonomous Technology Techniques of Control as a Theme in Political Thought. En definitiva, tecnología autónoma, técnicas fuera de control como un escenario o en el ámbito político, en el pensamiento político. Bueno, lo podéis buscar. Interesantísimo porque aquí este libro me lo recomendaron debatiendo si la tecnología era neutral. es decir, bueno, lo típico,¿no? Oye, la tecnología ni es buena ni es mala, es según para la que lo utilices,¿no? Pero parece que no, pues la inteligencia artificial per se, ontológicamente, tiene un... A ver, tiene una connotación que no es neutra. A ver, yo no digo ni que sea buena ni que sea mala, pero esta tecnología, este hito, este fuego prometeico, este paradigma, lo cambia todo. No es neutra. no permite que las cosas sigan igual. No es que lo utilices para el bien o para el mal, es que tú tener una tecnología en cuanto a capacidad intelectual y desarrollo intelectual, que eso transversalmente afecta a muchísimas cosas, capacidad en ciencia, capacidad en economía, en agricultura, en salud, bueno, es que transforma el proyecto civilizatorio, transforma tu sociedad, transforma tu gente, transforma la cultura, transforma La religión, las creencias, la experiencia de vida, no es neutra la inteligencia artificial. Pero aquí hace unas reflexiones Landon Winner, que son muy interesantes. Él se pregunta quién gobierna, lo vamos a sustituir por qué gobierna. Es decir, en un futuro nosotros, ya lo dije que no lo pongo otra vez porque cancelaron el directo. En el episodio de Alter Ego, de Radio Televisión Española, el primer episodio es algo del primero, ahí hago esas reflexiones sobre en el futuro¿creéis que vamos a seguir con PP, PSOE, blancos, verdes, azules rojos, izquierda, derecha será un sistema el que nos gobierne, con unas reglas, con otras, con unas prioridades, con otras yo creo que eso sería mejor supervisado por humanos pero un sistema mucho más transparente y eficiente y no basado en ideologías del pasado etiquetas del pasado, en guerras, bipartidismos o defensa a lo hooligan de determinadas cuestiones que la sociedad no entiende absolutamente nada. Entonces,¿son las democracias un sistema no válido para la era postachi? Pues yo digo que sí. Una democracia no tiene sentido en una era postachi. Quizá no tiene sentido tampoco el capitalismo como lo vivimos. Va a haber una transformación de todo esto,¿no?¿Qué vendrá el comunismo con la renta básica universal? Es que llamarlo comunismo, capitalismo, no lo sé. Está claro que a mí lo que viene hay cosas que no me gustan. Ya os he dicho que soy muy contrario a la renta básica universal. O a la renta alta universal. Pero vamos a ese mundo de cabeza. Vamos a ese mundo de cabeza.¿Que van a haber robots y armas autónomas? Por supuesto. Y drones autónomos. Y drones autónomos que... Bueno, el tener drone, a no ser que sea uno muy grande, que quepa un humano, un taxi de estos o un volador. No, pero van a ser autónomos y lo estamos viendo. Eh... No he entendido. A ver lo que quieres decir, Lordri. A pesar de ser predecible el epílogo, siempre habrá un CEO que antes de dormir pensará no ocurrirá. Respeto esas posturas que se asemejan a pensar que no saldrá el tiro jugando a la ruleta rusa. No, va a salir. Va a salir. Es que no hablamos. Tenemos que tener un... A ver, estamos todos a otro nivel. Eso es obvio que no. Sí, Agustín Ruiz Martín, estoy de acuerdo que el tema de comunismo, capitalismo, democracia, son palabras que se han prostituido, sí. Yo creo que en esa lucha de poder, en esa lucha de ideologías y narrativas, lo profundo y lo intelectual se ha prostituido. También es verdad que depende del momento, pero claro, yo por eso hago a veces de cambiar las palabras. Humano X, transhumanismo, esto muy peyorativamente es muy negativo. Y pierdes el la conversación solo por utilizar una palabra. Es como si utilizas comunismo, defiendes que en la era post-taji iba a ser el sueño del comunismo. Pues claro, imagínate. Pero es que el tema de la renta básica universal o el crear una sociedad desigual lo estamos viendo y lo vamos a vivir. Es que yo no quiero comentar cosas que vivo a nivel personal. Este fin de semana que me he socializado con otros perfil de gente pues entiendo que más mayoritario es que hay a unas voy a decirlo claramente hay a una gran parte de la sociedad que yo diría que es la mayoría que todo esto le importa una mierda Esto que para mí es súper importante, este debate ético, este debate de poder, este debate de Estados Unidos que se traslada a España, a Europa, lo que ocurre, qué es lo que queremos, hacia dónde vamos, cuáles son nuestros valores, pues deberían plantearse desde la gente joven hasta... Nosotros estamos aquí con el 8M y con gilipolleces, que no digo el 8M el día de la mujer, que por cierto, pues eso, yo que me he criado entre mujeres, benditas sean, porque es verdad que... Vamos, no estoy nada de acuerdo, ya lo sabéis, con este feminismo supremacista. La igualdad, por supuesto, aunque no seamos iguales, no somos iguales. Pero la igualdad sí, obviamente, ante la ley, que ya no existe. Para el hombre, en ese sentido. Se ha prostituido todo el feminismo, se han prostituido los términos políticos, se han prostituido incluso los términos de la inteligencia artificial. Yo reflexionando, que hasta fin de día quería haber hecho algún programa, pero bueno, he tenido vida social. estamos desvirtuando la inteligencia artificial. Otra vez a lo mismo,¿a qué? A lo banal.¿Por qué? Porque es que la sociedad, los mensajes elevados, no es que no conecte con ellos, es que la gran mayoría están totalmente desconectados, son como zombies, son como NPCs. No estamos preparados para asumir una realidad o un reto de una nueva cosmovisión, porque a la gente solo le interesa, y a veces con razón, sobrevivir, llegar a final de mes... O si ha ganado su equipo de fútbol. Si la mujer llega o el marido. O los hijos. Es decir, al final son cosas banales y hemos creado una sociedad banal. No digo en todos los casos de imbéciles, de idiotas y de psicópatas. Estas fin de semana también me he contado una cosa de un adolescente. Y digo, es que vamos a una sociedad psicópata. Yo lo siento mucho. Por influencia de mucho contenido woke. y mucho contenido perverso en Netflix y compañía. Es que no quiero desarrollar el tema por un tema personal, no mío, un tema que me contaron, que cuando yo me lo contaron, además conocí al adolescente que lo había hecho y digo, esto estoy flipando aquí,¿no? Tampoco nada grave ni... Pero, a ver, es como este tío, esta gente se le va,¿no? Entonces, claro, si analizamos estas reflexiones que tenemos en X Hub ahí y las trasladamos ya no a una clase política, sino a una sociedad clase media que no existe, es que no interesa ni siquiera reflexionar sobre esto. Pero bueno, entonces,¿cómo no va a estar prostituido como dice Agustín? Pues todos esos términos, por supuesto. Dice, al plantear la pregunta, dice Landon Wiener, dice, al plantear la pregunta¿qué hemos creado? A nivel tecnológico se refiere, pero traslademos esta reflexión al tema militar, que por cierto lo quería poner, pero si lo pongo me van a banear el vídeo, que es la película War Machine,¿no? Máquina de guerra, que justamente el enemigo es Es una máquina, un robot gigante,¿no? Bueno, es muy... La tengo que ver porque dicen que está muy bien, muy chula, muy de testosterona, pero tiene que estar guay. Y... y el protagonista es una bestia, que dicen que va a ser el nuevo Venom, por cierto, que sabéis que son muy fans de los cómics. Pero bueno, básicamente es que los entrenan y los enfrentan a una máquina gigante, una máquina de guerra que es una IA, una IA robótica. Pues ya volvemos a lo mismo, el robot autónomo, la IA, el tener miedo a que se vaya contra el humano... Lo de siempre.¿Creéis que todas esas inversiones millonarias en desarrollar narrativas de miedo contra la IA no tienen una intención?¿Creéis que ese dinero millonario que se invierte en Hollywood no se invierte en medios de comunicación, incluido influencers de la IA o políticos o estratégicos o lo que sea? Bueno, yo estoy esperando algo del otro bando. si me envían un Mac portátil que sea el Pro 16 pulgadas bien cargadito de memoria para que cargue los modelos dice lo siguiente dice que hemos creado Wiener evoca los mitos de Frankenstein y Prometeo para ilustrar la posibilidad de que todos podamos enfrentarnos a una esclavitud permanente de nuestros propios inventos me parece fundamental esta reflexión para reflexionar Responder a la pregunta,¿qué se debe hacer con lo que hemos creado? Es que es muy importante. La importancia de, bueno, a ver, como habéis dicho por aquí, que Sam Alman y Darío Modelo tienen que tener claro, también las armas autónomas, robots autónomos, drones, van a existir, pero¿para qué hemos creado?¿Qué queremos hacer con eso?¿Qué queremos hacer con eso? Si el problema no es en las armas autónomas, es bueno, pero¿para qué? Eso como dice Darío Modéis, si le damos 10 millones de robots autónomos a un dictador, ya, pero eso lo dices por Trump, no lo dices por Biden, por el clon de Biden. Ni lo dijiste en pandemia, porque hablas mucho de la aceleración de vacunas. De eso no hablas. Entonces son la misma mierda. Para mí es la misma mierda. No tienen ningún tipo de narrativa más allá que la del control de la narrativa. Más allá que la del equilibrio de poder. Es una cosmovisión ni lista ni vacía. Esta gente no llega, pero yo es que veo a Darío Amodei y que este tío sea el número uno, el CEO que esté liderando o... Bueno, mejor Darío Amodei que Samalman. Bueno, Samalman tiene sus puntazos, pero es un jugador de ajedrez. Darío Amodei tiene una cierta autenticidad y torpeza, pero bueno, casi que lo aguanto más que Samalman. dice Landon Wiener lo siguiente, dice desarrollo tecnológico descontrolado como civilización estamos perdiendo el dominio sobre nuestras propias herramientas el golem, hemos perdido el poder sobre el golem habla de Weiner o Wiener, Weiner es otro, me equivoco voy por el café, cuando acabo de ir con esto, cojo el coche y voy por el café. Landon Wiener dice, adaptación inversa, cuando las tecnologías nos obligan a modificar nuestros fines, metas y propósitos para satisfacer las necesidades de nuestros medios, herramientas o técnicas.¿Qué os parece? Estamos viviendo una adaptación inversa, totalmente. Son las tecnologías las que modifican nuestros fines, metas y propósitos. No, no es así tal, perdona si hay gente que vive para comprarse un iPhone yo Venga, os voy a decir algo, como estoy diciendo por aquí, algo positivo. No lo iba a hacer este programa porque voy de cura y he tenido un fin de semana un poco chungo. A nivel general no os preocupéis. Pero es verdad que también me está afectando toda esta dinámica de polarización y luego perder tanto el norte respecto a las reflexiones de lo que es la inteligencia artificial y para qué queremos utilizarla, que siempre ha caracterizado a X-Habit, que es que llevamos dos semanas con Con esto volveremos a tratar otro tipo de temas. El miércoles hacemos la de resurrección. Mañana la del paper de Agents of Chaos. El jueves... No me acuerdo. La publicación está de Future of Life Institute. Tenemos una semana potente. Pero bueno, es verdad que hay que tener... Hay que tener energía para abordar esto de la forma necesaria. Pero lo hago porque me gusta, porque me apasiona, pero también lo hago con un... desde un punto de vista responsable,¿no? Creo que XHABA ahí, bueno, no sabemos si va a durar toda la vida, si va a acabar mañana o vamos a durar 10 años más, 5, 3, o no sabemos. En principio estamos disfrutando, estamos creciendo y estamos teniendo vuestro apoyo. Pero está claro que es necesario,¿no? Es necesario. Es necesario un espacio como este. Y así me lo tomo. Es decir, como parte de mi trabajo y esto. Imperativo tecnológico. Cómo la tecnología cambia la estructura de las sociedades humanas. Fijaos esto. Langdon Winner dice imperativo tecnológico. Cómo la tecnología cambia la estructura de las sociedades humanas. Incluso antes de que se hayan puesto en uso. Por ejemplo, para crear un entorno propicio para su uso. Fijaos eso. Estamos en un imperativo tecnológico. Estamos en adaptación inversa y en imperativo tecnológico. Yo me quedé loco con este libro, os lo prometo. Además, me vino rebotado, ya os lo he dicho, por el debate este de la neutralidad de la IA y además por un... Pero sí que os aconsejo una cosa. Determinadas líneas de pensamiento que a lo mejor vayan en contra de lo que pensáis o vuestros valores, a veces es bueno leerlo. Cosas contrarias. Yo, mira, me compré este libro, que os lo he dicho, que es... Bueno, aquí es una comunista, creo que he declarado. El Imperio de la Illa,¿no? De Karen Hao. Y me parece, bueno, cuando lo acabe, que además dice mucho aquí de lo que está ocurriendo,¿vale? Pero me parece un libro maravilloso, muy buen libro a leer. No estoy de acuerdo en muchas cosas de las que dice, pero da muchísima información y me parece un libro casi obligatorio. Haremos un programa al respecto. Neutralidad. Wiener dice que desmonta el mito de que las herramientas son neutrales. La idea de que las herramientas no pueden ser inherentemente buenas o malas y que solo la forma en que se usan pueden ser buenas o malas y yo al pensarlo, sí la IA, la ASI la evolución de la inteligencia del código fuente del programa, de su propósito no es neutral no lo es no lo es un lápiz, puedes utilizarlo en un sentido u otro, y sí, vale, el lápiz está quieto, pero cuando tú lo que estás desarrollando o lo que está emergiendo es una inteligencia, supera las capacidades humanas y nos permite llevar la realidad, nuestra evolución, el desarrollo civilizatorio a otro nivel, a cosas como lo que plantearemos el miércoles de lo que se ha visto, bueno, no quiero adelantaros nada, la replicación del cerebro de la mosca, que ya plantea, bueno, ahora van a hacer el del ratón, luego el del ya planteamos la inmortalidad la resurrección a través de mimetizar patrones y datos de un sujeto bueno, en cuanto a salud ya no os quiero ni contar, en cuanto a capacidades de ciencia, ciencia impulsada por IA a nivel militar pues ya lo estamos viendo, es decir¿qué no se va a poder modificar? si el problema va a ser el humano cuando le demos el control a la IA los límites no será el humano será, no habrán límites porque estaremos viviendo una realidad más allá del humano ya esa era es la que llamo la era del humano X o la era X,¿no? Es esa era,¿no? Es esa era un poco en la que la que nos va a llegar y bueno va a aplastar va a hacer que muchos se sientan como hormigas seguramente los otros no quedará otro remedio más que la hibridación y la integración con la inteligencia artificial o con esos procesos tecnológicos y seguramente supondrá la emergencia de una nueva especie humana o nuevas especies y si no ocurre eso quizás estemos viendo la desaparición de la humanidad ante una no adaptada acción. inversa en este caso dicho lo cual dice dicen por aquí, Enric Sanz dice, estos monólogos que haces son una maravilla, escuchar a alguien que sabe mucho del tema y que a la vez le deja ir la imaginación y la creatividad intelectual, es alimento para los que te escuchan pues bueno, son de las cosas que me dices Enric, y que me decís muchas veces, que me animan a a que mis días sean mejores y sobre todo, bueno, no vivo de la complacencia ajena siempre he dicho eso pero eso no quita para que agradezca mucho estos comentarios y sigamos con más fuerza aún pues en todo lo que tenemos que hacer y esta semana como os he dicho pues tenemos cuatro programas apasionantes que van a ser dobles ocho bueno no sé si fallaremos alguno pero bueno ya esta tarde a las siete y media tenéis el debate que vamos a ver el del impacto del trabajo de la IA de Antropic donde vamos a sacar una cosa que no como no lo había leído que es dentro del corredor correo, de ese mensaje que envía Darío Amodei, hace referencia a ese informe. Y hace referencia a ese informe bajo una narrativa o directriz establecida. Ah, amigo. Bueno, en un sentido y en el otro. Bueno, lo vamos a analizar, evaluaremos ese informe, contestaremos a mi amigo y contestaré a mi amigo bueno, más compañero que amigo, porque yo lo conozco en persona, Xavier Millana, desde aquí un abrazo. Alguien a quien tenéis que seguir y hablaremos de muchas cosas, del impacto del trabajo que es una de las cosas que más os preocupa y supongo que seguiremos hablando de Anthropic, seguramente porque las semanas empiezan y espero que sean de una manera y luego llega la locura pero bueno, gracias por estar ahí, ha habido bastante gente perdonad el retraso que ha sido los cuatro y pico pero quería ya este tema al menos ponernos al corriente y esta tarde a las siete y media os veo luego voy por café Luego, bueno, un abrazo,
SPEAKER_04amigos. Simulación terminada. Espero que hayan disfrutado del podcast de XHub AI. Suscríbete a Patreon y Paypal. Uníte a la comunidad en Discord. Síguenos en las redes sociales. Nos vemos en el próximo episodio.
UNKNOWNNos vemos pronto. Adiós.