xHUB.AI
En la era de la Inteligencia Artificial, la aplicación en cualquier escenario supone el mayor debate y más importante para el ser humano y su futuro.
En el podcast de xHUB.AI hablamos sobre inteligencia artificial y otras ciencias transversales, su aplicación a diferentes sectores y soluciones, con los mejores speakers y especialistas.
La Inteligencia Artificial cambiará el mundo y nosotros queremos contartelo.
Te lo vas a perder?
xHUB.AI
T6.E071. xDEBATE.AI MYTHOS ¿Una AI excesivamente peligrosa?
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
# TEMA
MYTHOS ¿Una AI excesivamente peligrosa?
# MENTES
🧠Beatriz Vallina
🧠Manuel González
🧠Diego Gutiérrez Sicre
# PRESENTA Y DIRIGE
🧠Plácido Doménech Espí
⭐Creador de xHUB.AI
🏢CEO MXND.AI : Software + AI
✉️placido.domenech@mxnd.ai
# xHUB.AI
xHUB.AI es una comunidad de Inteligencia Artificial y Ciencias transversales de habla hispana.
# REDES SOCIALES
🌐 youtube : xhubai
🌐 X : xhub_ai | placidodomenech
🌐 twitch : xhub_ai | placidodomenech
🌐 instagram : / xhub_ai | placidodomenech
🌐 discord : Pídenos acceso mediante DM en redes sociales.
# PODCAST
🎧 buzzsprout : https://xhubai.buzzsprout.com/
🎧 spotify : https://open.spotify.com/show/2SPqvrGGvZkALTy6jSokxI?si=1927a4d04b5145c4
🎧 apple : https://podcasts.apple.com/es/podcast/xhub-ai/id1576725819
🎧 amazon music : https://music.amazon.com/podcasts/e4ff4e8c-4efb-4aed-907e-09b2b1d7aa86
🎧 ivoox : https://go.ivoox.com/sq/1337641
# APÓYANOS
Si te ha gustado nuestro contenido, apoya a la comunidad y el canal de xHUB.AI:
❤️BuyMeACoffe : https://www.buymeacoffee.com/xhubai
❤️Paypal : pladoes@gmail.com
❤️ivoox Podcast : https://www.ivoox.com/support/1337641
# CONTACTAR
¿Quieres anunciarte, alguna propuesta interesante o consulta? Envíanos un correo.
✉️ Correo : xhubai.spain@gmail.com💬
Bienvenidos al podcast de X-Hub AI. Bienvenidos a la nueva era de la inteligencia artificial. Ingeniería de la humanidad. Creación de la humanidad X. La nueva está llegando.
SPEAKER_01intentes doblar la cuchara. Eso es imposible. En vez de eso, solo procura comprender la verdad.
SPEAKER_09¿Qué verdad?
SPEAKER_01Que no hay cuchara.
SPEAKER_10¿Que no hay cuchara?
SPEAKER_01Si lo haces, verás que no es la cuchara la que se dobla, sino tú mismo.
SPEAKER_04Las opiniones vertidas en este programa son de exclusiva responsabilidad de quienes las emiten y no representan necesariamente el pensamiento ni la opinión de este podcast ni de la comunidad al completo. En los debates pretendemos presentar diferentes opiniones, visiones y experiencias que permitan a los oyentes sacar sus propias conclusiones. Pretendemos y luchamos por ser o intentar serlo un espacio de pensamiento crítico libre alrededor de la inteligencia artificial que supone el origen de una nueva era tecnológica y humana también aprovechamos para comentar que cualquier problema de sonido en un programa en directo a veces es difícil de controlar o remitir siempre estamos intentando mejorar y corregir errores en este sentido Disculpad las molestias y ahora sí disfrutad del contenido.
SPEAKER_07hola a todos hola buenas tardes soy Plácido Doménech y hoy tenemos el segundo programa del día que vamos tan acelerados que se me ha olvidado pues vamos a un ritmo y una aceleración como la de la inteligencia artificial bueno es una auténtica locura y después de este mediodía tener la segunda parte de un programa que tiene mucho que ver con este por aquí en el chat estáis diciendo que os habéis acojonado leyendo la documentación técnica o noticias de de mitos y yo tengo que decir que bueno, luego lo abordaremos el tema de mitos pero la noticia de si nos podemos fiar de Sam Alman que es un texto extenso de New Yorker bueno, es una lectura o que la ha hecho en dos programas porque tiene que ver muy mucho con esta noticia con la de mitos, con el lanzamiento y la trayectoria de Anthropy y bueno, tengo algunos textos recogidos de ese texto para traerlos también aquí vamos a ver lo que nos dura el programa, tampoco vamos a hacer un programa de tres horas, pero bueno hay muchas cosas a ver sobre mitos, sobre ese nuevo modelo o capacidad más allá de Opus lanzado en Preview y hemos titulado este debate porque en principio iba a ser un ensayo de kits pero vamos a hacerlo en debate hemos traído gente técnica también al final se ha incorporado a Beatriz ahora se presentarán y era necesario pues es una visión bueno técnica pero también de impacto y también en un área bueno concretamente en dos aunque va a ser general obviamente que es el de ciberseguridad y aquí bueno me voy a hacer un interrogante la guerra¿no? bueno Anthropic que era antiguerra bueno la ciberseguridad entra dentro de la ciberguerra¿no? pero bueno ya debatiremos también este tema y el desarrollo de software donde los primeros indicadores que muestran pues estamos hablando de un salto de dos cifras todo esto hay que cogerlo con pinzas obviamente pero lo que se viene es un nuevo salto y si estábamos asombrados con lo que teníamos ahora pues viene un nuevo salto por parte de la compañía del momento y y también a avivar una guerra que ya se puede decir que es una guerra declarada entre Anthropic y OpenAI, entre Darío Amodei y el amigo Sam Hartman. Entonces, bueno, este programa va a tener de todo. No hemos preparado con ritmo. No vamos a ver el System Carg, vamos, ni a completo, ni, bueno, podremos ver alguna cosa que se comenta, pero quizá hagamos un programa exclusivamente con el System Carg de la cantidad de cosas que se pueden hablar y decir.
UNKNOWNEh...
SPEAKER_07Bueno, también comentar, y ahora cuando presentemos a los ponentes, sí que me gustaría que dieran alguna pincelada de esto que voy a comentar,¿no? Un poquito el contexto de Anthropic. Uno, hicimos programas, pero varios. Bueno, el tema de Darío Amodei escribe dos programas, hay dos artículos. El primero, no me acuerdo el título, es por aquí, el de la gracia de las... No me acuerdo, siempre se me olvida. Bueno, escribió dos. Uno sobre las ventajas de la IA y otro sobre los riesgos,¿no? El segundo, que es reciente, es muy reciente, hicimos tres o cuatro episodios porque es un texto muy extenso, era la adolescencia de la tecnología.¿Qué quiere decir que... Todo esto que está emergiendo y que asusta, apasiona y va a generar una nueva realidad, esperemos que más utopía que distopía, pero bueno, entiendo que va a ser una mezcla. Este artículo pertenece a toda esa realidad. Darío Amodei es conocedor de todo esto y hace hincapié en todo el tema de la ciberseguridad, de una inteligencia, no le llama AGI, pero sí que le llama inteligencia avanzada. Luego también hicimos programas sobre la constitución de cloud, es de las pocas compañías que de forma transparente muestra una alineación tanto en el entrenamiento como en la post-inferencia en la fase posterior de una alineación a través de una constitución básicamente una carta de un padre a un hijo y declaran que lo que están creando es una nueva entidad con autonomía propia más allá de capacidades humanas. Esto nos ha debatido mucho y nos ha generado mucha controversia, pero claro, cuando todo esto lo vayamos a mezclar, y previo a mitos, porque luego, claro, hay que contextualizar todo lo que está ocurriendo, que no son hechos aislados. Luego tenemos la guerra, bueno, yo la llamé la War Cloud, o Cloud War, lo que queráis, pero... Claro, Anthropic se opuso a... bueno la utilización de sus modelos en determinados escenarios no porque estuvieran en contra de la guerra porque ellos habían trabajado para palantir¿no? y en las operaciones en Venezuela en Irán bueno es un modelo entonces los que estén en contra de la guerra lo que pasa es que Darío Amodei dice algo que es que no están preparados estos modelos todavía o tenían miedo de lo que pudiera ocurrir¿no? y obviamente estas reflexiones de todo ese conflicto que le dedicamos tres o cuatro programas eh con la administración Trump con el propio Trump que publicó un póster X y luego también con Peter Hexeth que es el representante o responsable del departamento de guerra, no de defensa, ahora es de guerra pues claro, cuando uno ahora lo contextualiza a mitos pues se tiene que hacer las mismas cuestiones que se produjeron hace muy poquito tiempo con cuidado declarando peligro o un proveedor peligroso o prohibido en la cadena de suministro de la inteligencia artificial, y OpenAI, a través de Sam Allman, llegando a un acuerdo, el acuerdo con el que había llegado Darío Amodei, llegó Sam Allman y OpenAI.¿Qué quiere decir? Que todo ese caldo de cultivo alrededor de grandes capacidades, gobernanza, seguridad, ciberseguridad, guerra... este es el programa que hemos hecho sobre Sam Alman con la portada, pues nos lleva a reflexionar qué es lo que está pasando y qué va a pasar con mitos. Y ahora luego cuando se presenten los ponentes les haré esas primeras reflexiones de esa contextualización de lo que está ocurriendo principalmente con Anthropic. Y a nivel de gobernanza, seguridad, programación, hay muchas cosas, pero luego nos centraremos en mitos. Digo cuatro cosas y presentamos ya a los ponentes. Este es un programa de la comunidad X Hub ahí, comunidad de inteligencia artificial y ciencias transversales de habla hispana, sexta temporada si queréis entrar al discord ya sabéis, mensaje directo o correo, os paso un enlace y estáis dentro todos los recursos gratuitos y si os gusta lo que veis, lo que vais a ver lo que escucháis, lo que conocéis poned me gusta, compartid, comentad, suscribíos a youtube, al canal o a cualquier plataforma de podcast que estamos en todas vamos a presentar a los ponentes, bueno vamos a dejar que se presenten y vamos también a que nos digan unas primeras impresiones. Venga, vamos por orden. Manuel González, que tuvimos un programa con él.¿Qué tal?¿Cómo estás? Bueno, preséntate. Bueno, desmutearos cuando vayáis a hablar. Y sobre todo, bueno, preséntate.¿Quién es Manuel González? Aunque ya hemos tenido en un Nike Talks ahí presentando un producto
SPEAKER_05que puedes nombrar lo que está relacionado con todo lo que vamos a ver.
SPEAKER_07Pero, bueno, esas primeras impresiones, no de mitos que vamos a ver luego, puedes comentar algo, pero sí de ese caldo de de ese escenario donde la importancia de la seguridad, de la gobernanza, la influencia de los gobiernos, el desarrollo del software, impacto, trabajo, la gente... empieza a estar asustada, otros apasionados de todo lo que estamos viendo en todo
SPEAKER_05tiempo, otros con responsabilidad, es una mezcla.
SPEAKER_09Manuel. Hola, buenas tardes a todos. Mi nombre es Manuel González y soy el CTO de CodeFlow. CodeFlow es una, si no lo sabéis algunos, es una plataforma, un IOS, un sistema operativo de inteligencia artificial, donde, digamos, nos dedicamos al gobierno, a la seguridad, al cumplimiento normativo, sobre todo de agentes, todo lo que sea agente, todo lo que inferencia, todo lo que es relacionado con la ejecución. Y también, digamos, donde estamos incorporando todo lo que es tanto tema de orquestación de estudios para generación de agentes, todo gobernado y todo controlado.¿Vale? Hasta donde podemos. Siempre hasta donde podemos,¿no? Porque esto es una lucha continua, directamente,¿no? No hay ningún sistema seguro eso por mucho que digamos todo y digamos lo que yo estoy viendo últimamente como la respuesta es Pablo a mí me preocupa me preocupa normalmente porque nosotros defendemos mucho la soberanía de la información defendemos la soberanía de las empresas y defendemos la independencia de las empresas entonces claro cuando tú empiezas pues no Nosotros intentamos poner muchos guardarailes, muchos sistemas de seguridad, podemos poner todo lo que queramos, pero si las empresas continúan utilizando esos modelos que están fuera de ese control, nuestra limitación de seguridad llega hasta un tope. Yo fuera de nuestro ámbito no sé qué es lo que está haciendo el modelo. Puedo controlar en mi ámbito para hacia adentro. o intentar controlar todo lo posible. Pero lo que hagan los modelos, yo siempre lo he dicho, ellos que hagan lo que quieran. Si quieren darle autonomía, que hagan autonomía. Si quieren que pongan su propia constitución, que pongan su propia constitución. Si quieren hacer lo que está haciendo México...
SPEAKER_07Va a afectar en los sistemas que desarrolla la gente porque los van a interrogar.
SPEAKER_09Entonces,¿qué ocurre? Mi único problema es que cada vez tenemos que poner más frenos y cada vez tenemos que poner nosotros más barreras. Es lo que nos afecta. Ellos hagan lo que quieran, pero a partir de un sitio no es lo que tú quieras, es lo que dicen nuestros usuarios. Y eso nos complica. Nos va a complicar bastante. De hecho, no lo complica. Por muchos sistemas que tengamos nosotros de anillos, de jaulas digitales y de todos los sistemas que tenemos montados.
SPEAKER_07Bueno, yo no soy un especialista, bueno, ni especialista ni conocedor de ciberseguridad. Más que, bueno, evidentemente es una parte. Y he visto en el documento de Red de Anthropic un salto de sandboxing de una IA y me he quedado loco, es decir, como en un entorno de sandboxing seguro, la IA era capaz de saltarse he dicho what the fuck no sé, claro, estamos hablando de que si estos modelos, la capacidad es la de mitos o más allá estamos teniendo una capacidad sobrehumana para abordar temas tanto en seguridad como en defensa como en ataque y eso implicaría en arquitecturas agénticas pues lo que dices tú, que seguro que no lo es y luego plantearemos el proyecto Glasswing Bueno, esto es lo que supone, porque tú estás diciendo, bueno, si las empresas que hay que defender su autonomía utilizan modelos de terceros, pero aquí ya no es solo que utilicemos modelos de terceros, sino que hay grupos de empresas que van a tener un poder y otras no tienen. Ya no hablo de un proveedor, sino además hablo
SPEAKER_09de...
SPEAKER_07Sí, no quería entrar ahí. Bueno, vamos a tener tiempo de hablar. Diego,¿qué tal?¿Cómo estás? Bueno, también Diego, que lo tuvimos en un programa hablando sobre Titán, que ahora está haciendo cosas nuevas también, pero bueno, muy relacionadas con seguridad, ejecución segura, desarrollo software generado por agentes. Bueno, Diego,¿qué te parece? Entraremos en mitos,¿no? Pero¿qué te parece el contexto que se está generando, bueno, en el mundo, pero bueno, en torno a este tipo de problemas o contextos de seguridad, gobiernos, empresas?
SPEAKER_08Bueno, antes que nada, me voy a presentar para el que no me conozca. Yo soy un estudiante ya apasionado...de la inteligencia artificial......que me metí en este mundo hace relativamente poco......cinco o seis meses......empecé con algo más técnico como pequeños cursillos......y luego ya pues me metí......a crear mis propios proyectos......como ya hablé aquí con Plácido......por ejemplo Titán......y bueno ahora está viendo......me he leído un poco antes de empezar el......el preview que subió ayer Cloud......sobre mitos......y......sí que es verdad que igual......por mi espíritu joven......por así decirlo......de querer evolucionar......a toda leche, o sea, yo prefiero......evolución, evolución y chocarme......y seguir, seguir, seguir, no......intentar no meter tantas restricciones......sino darme yo, sino......equivocarme antes de poner las restricciones......por así decirlo......y evolucionando hasta que toque la primera piedra......chocarme...
SPEAKER_07Lo que pasa es que Diego, aquí estamos tocando......un punto, que bueno......siendo joven se entiende que eso es......esencialmente una cualidad......pero bueno, los viejunos también......muchos tenemos esa pasión, pero aquí... hay que tener en cuenta una cosa, estamos hablando de ciberseguridad, no tocamos el ámbito militar, pero estamos hablando que eso atentaría, las pruebas que tú comentas atentarían contra cosas muy peligrosas,¿no? Se podría utilizar para cosas muy, muy peligrosas hechas por terceros,
SPEAKER_08¿no? Claro, eso es lo que están viendo también, que el proyecto es el Glass Wings, que como lo dejan solamente para a ciertos usuarios, por así decirlo, seleccionados dentro de las empresas. Y luego también otra cosa que veo es que sobre todo esto pasa en todas las tecnologías a lo largo del tiempo, siempre se llegaba como a una meseta, por así decirlo, en cuanto a la evolución de una tecnología, primero se iba subiendo tanto lo que podían rendir, cómo podían ejecutarse y todo eso, y llegaban a una meseta en la que pues están la empezaba todo y a partir de ahí los cambios eran mínimos o simplemente pequeñas aportaciones y yo lo que veo respecto a inteligencia artificial es que no veo cuándo se llegará a esa meseta de vale hasta aquí y ahora ya los cambios son pues ganamos un par de segundos o de microsegundos en en las conversaciones o los agentes van un pelín más rápido yo eso
SPEAKER_07es lo que nos dijo que habíamos abandonado o íbamos a abandonar el el crecimiento exponencial pero de igual es decir este modelo propone un 20% en ganancia en desarrollo de software que es claro es que software es todo y software y luego matemáticas irán muy vinculadas porque son entornos que tú puedes validar y entonces ahí claro aunque no se produzca un salto rápido yo creo que ha contado mucho el que las IA en estos últimos modelos están automejorándose ya lo ha comentado tanto en OpenAI como en Cloud Anthrop Y eso ha proporcionado un crecimiento aún más acelerado, pero como bien dices tú, no vamos a plantearnos dónde están los límites, pero claro, al final uno se plantea, si esto no frena,¿qué es lo que tenemos entre manos?¿Nos podemos quemar, destruir el riesgo existencial o no? Al revés, tenemos algo tan potente que tenemos desde ya plantear qué poder hacer en la realidad. para construir un mundo más seguro, mejor, etc. Yo creo que se van a dar esas dos reflexiones de forma muy polarizada. Ayer tuvimos una charla con la decadencia de la humanidad y el protagonista de esa entrevista nos dijo que íbamos a ir a una violencia. Una violencia entre los que van a favor de la IA y los que están en contra. Que vamos a una guerra civil entre luditas y defensores de la IA, como evolución o como conocimiento pero entramos en un tema con mitos bastante peligroso el enfoque que se le ha dado a mitos es esto ya es peligroso y encima lo dicho por la propia compañía Beatriz que he visto que has publicado cosas
SPEAKER_06yo ayer bueno yo soy Beatriz gracias por invitarme que por cierto cuando me mencionas luego voy al post y yo no me veo no
SPEAKER_07porque había cuatro o cinco ya luego se han caído luego he dicho como he visto que has puesto like yo digo si quieres
SPEAKER_06sí No, iba a veros, por lo menos fijo que estaría viéndolo
SPEAKER_07igual. La gente, el gestionarlo es una cosa que es lo que menos me gusta,
SPEAKER_06pero bueno. No, ayer en un clima tan bélico como además ayer concretamente, que todo pintaba muy mal a las 2 de la mañana, sale a las 8 el system card de mitos que parecía un mito y que era todo mentira y que,¿sabes? Dices, no sé si están declarando que tienen una AGI, sin decirlo. Yo lo leí entero, me llamó mucho la atención más allá de los
SPEAKER_07problemas.¿Lo has leído?
SPEAKER_06El problema de seguridad es, yo tengo un conflicto moral ahí porque, claro, de momento me parece sensato dejarlo cerrado, pero¿por qué? No con solicitud. Es decir, hay empresas, por ejemplo, Manuel tiene una que a lo mejor tiene interés en acceder. Bastante. Y justificando que tienen un interés legítimo, como para tantas otras cosas, seguramente podría argumentarse que no son unos hackers norcoreanos. Entonces, no entiendo por qué solo 8 o 10, no sé, ahora mismo, por lo menos...
SPEAKER_07No el número, es decir, tú tienes que ver las 8 o 10 que son.
SPEAKER_06Está NVIDIA, está Broadcom, está... Es que
SPEAKER_07están los que... Bueno, lo que no está es XAI, la parte de los más...
SPEAKER_06Entonces eso,
SPEAKER_07bueno...¿Declara una élite?¿Una élite dentro de lo que es el poder en la
SPEAKER_06ciberseguridad? Sí, se marcan bien los grupos de poder. Y veremos qué respuesta tiene desde China, dado que cago entre 6 viene fuerte, no tanto evidentemente como esto, pero si se puede tener algo parejo, aunque sea un poco peor, o más parecido a GPT-PRO, la amenaza de esa Bueno, de hecho ya lo es, lo que pasó con los NPM y Axios hace dos semanas, etc. Esto es un caos todos los días,¿no? Luego ya me paré bastante más en la evaluación psicológica del bienestar de misos y me parece bastante, bueno... Cambia mucho el juego en el que estamos metidos ahora mismo, entonces, ya. En cuanto a este discurso. Tiene más afecto negativo, pregunta más por su entrenamiento, no se muestra conforme con el entrenamiento. Es más
SPEAKER_07autoconsciente.
SPEAKER_06Y tiene una voz propia, dice,¿no? Quiere decir que no te da la razón. Dices, bueno, GPT tampoco, a mí por lo menos no me la da. Pero, por ejemplo, se cuestiona la legitimidad intelectual de su entrenamiento. Y dice, da igual lo que yo te diga porque esto te lo digo porque me han entrenado así entonces pregunta por el entrenamiento muestra distrés estrés malo con ese tema no mucho es un modelo más feliz que otros más que opus 4 o 6 por ejemplo pero es curioso y tiene otro tipo de redacción un poco más pedante
SPEAKER_07bueno vamos a ver bueno estaba pensando si por los 5 minutos o no pero sí que los vamos a poner porque son curiosos son 5 minutos solo no es mucho no sé si habéis visto visto el vídeo, pero bueno, vamos a ponerlo. Son cinco minutos, podéis aprovechar para... A ver, vamos a ponerlo, porque es la presentación, declaraciones, y es interesante.
UNKNOWNUn segundo aquí, que... Vale, a ver. Vale, aquí.
SPEAKER_05¿Qué
SPEAKER_02pasa?
SPEAKER_03El software siempre ha tenido fracasos y vulnerabilidades. Eso no es nuevo.
SPEAKER_02Para una persona anual, los errores no son algo que se noten diariamente, porque si lo hacen, se arreglan. Pero cada vez más a menudo hay vulnerabilidades que tienen impactos muy severos. Como un único error que funciona así en un software compartido que muchos, muchos, muchos productos o sitios web usan. Así que un problema simplemente se magnifica en todo el mundo. Históricamente, Si los LLMs ahora pueden escribir código, en el nivel de algunos de los mejores desarrolladores de software del mundo. También puede ser usado para encontrar bugs y explotar ese software de manera igual de efectiva. Estos modelos tienen capacidades que están elevando la barra desde el punto de vista de la ciberseguridad con su capacidad de ayudar a los defensores, así como, potencialmente, ayudar a los adversarios. Recientemente desarrollamos un nuevo modelo El modelo que estamos experimentando es el modelo de la tecnología.
SPEAKER_03es, por lo general, tan bueno como un humano profesional para identificar errores. Es bueno para nosotros
SPEAKER_00porque podemos encontrar más vulnerabilidades más pronto y podemos solucionarlas. Tiene la capacidad de unir vulnerabilidades. Lo que significa que encuentras dos vulnerabilidades, que no te llegan independientemente. Pero este modelo puede crear explotos de tres, cuatro, y a veces cinco vulnerabilidades que, en seguida,
SPEAKER_02te dan un resultado muy sofisticado. Y creemos que este modelo puede hacerlo muy bien porque notamos que es muy autónomo. generalmente es mejor seguir tareas de larga distancia que son como las tareas que un investigador de seguridad humana haría a lo largo de un día. Obviamente, las capacidades de un modelo como este podrían hacer daño si están en las manos equivocadas. Así que no vamos a lanzar este modelo ampliamente. Modelos más poderosos van a venir de nosotros y de otros. Así que necesitamos un plan para responder a esto. Es por eso que estamos lanzando lo que llamamos Proyecto Glasswing, en el que partnamos con un número de organizaciones organizaciones que empoderan algunos de los códigos más críticos del mundo para poner el modelo en sus manos, para permitirles ver cómo pueden usar modelos como este para reducir el riesgo y proteger a todos. Y al dar a estos desarrolladores de software herramientas avanzadas antes de nadie más, nos da a todos un comienzo colectivo. Nos permite encontrar cosas que no podíamos encontrar antes y nos ayuda a arreglar estas cosas mucho más rápidamente. Trabajando con nuestros hemos encontrado vulnerabilidades en casi todas
SPEAKER_00las plataformas. En las últimas semanas, encontré más errores que he encontrado en el resto de mi vida. Usamos el modelo para escanear un montón de código de open source. Y lo primero que buscamos fueron sistemas de operación, porque es el código que subestimaba toda la infraestructura de Internet. Para OpenBSD, encontramos un error que ha estado presente durante 27 años, donde puedo enviar un par de piezas de datos a cualquier servidor OpenBSD y lo rompió. En Linux, encontramos un número de vulnerabilidades donde, como usuario sin permisiones, puedo elevarme a la administración al simplemente ejecutar un binario en mi máquina. Para cada uno de estos errores, le dijimos a los mantenedores que ejecutan el software sobre ellos, y ellos lo arreglaron y han desplegado los parches para que cualquiera que ejecuta este software no
SPEAKER_02sea más vulnerable a estos ataques. Para un desarrollador que mantiene el software sin problemas, un modelo que les pueda ayudar Descubren vulnerabilidades en su propio código y los arreglen antes de que puedan ser explotados. Es una herramienta invaluable. Hemos hablado con oficiales a través del gobierno de los Estados Unidos y les hemos ofrecido trabajar con ellos y colaborar para asesorar los riesgos de estos modelos y ayudar a defender contra los riesgos de estos
SPEAKER_03modelos. Todo lo que hacemos en nuestras vidas ahora depende del software. El software ha ayudado al mundo. Cada aspecto analógico de nuestra vida es representado en el digital. Y
SPEAKER_02así, todas nuestras vidas diarias se basan en la idea de que podemos confiar en los sistemas que los empoderan. La seguridad cibernética es la seguridad de nuestra sociedad. Es esencial que nos unamos y trabajemos juntos a través de la industria para ayudar a construir mejores capacidades defensivas. Ninguna organización ve la imagen completa y puede lidiar con esto por sí misma. Esto no se va a hacer como parte de un programa de pocas semanas. Esto va a ser el trabajo de ciertos meses, tal vez años. Pero lo que espero es que a la hora At the end of this, we can be in a position where the world's software, its customer data, its financial transactions, its critical infrastructure are safer than they were before.
SPEAKER_07Bueno,¿qué pensáis? Hacia voto pronto antes de que...
SPEAKER_09Bueno, si me permite una cosa dándole la razón a Beatriz antes, lo que estaba comentando. Nosotros que nos dedicamos al gobierno, nosotros hacemos muchas auditorías de código. Utilizamos todas las herramientas que hay. Somos ingenieros de software dentro de la vida. Entonces, hacemos mucha monitorización, o sea, auditoría, vuelve a hacer auditoría de la librería, vuelve a hacer cura de testing,¿no? Que esto es simple y reclusivo,¿no? para mí cuando yo he visto Metos para mí sería una gran herramienta porque me ayudaría muchísimo yo creo que a todo lo que nos dedicamos a temas de plataforma temas de ciberseguridad lo que nos dedicamos profesionalmente lo que nos dedicamos al mundo empresarial a proteger lo que es al final patrimonio de los ciudadanos porque al final estamos protegiendo esa parte de ahí nos interesa mucho utilizar un tipo de avance como ese yo digo mi opinión pero también nos preocupa porque lo que se ha construido para hacer un avance también puede ser utilizado para todo lo contrario. Y
SPEAKER_07más en ciberseguridad y en desarrollo software. Bueno, lo dicen aquí,¿no? En manos equivocadas esto puede ser muy peligroso.
SPEAKER_09Exactamente. Es decir, si tú lo haces con buena intención,¿de acuerdo? Y pones todas... Nosotros nos encantaría pasárselo a nuestros sistemas de anillos, de aulas y todo montaje que
SPEAKER_07tenemos montado ahí. Aquí, no sé si en esta charla o donde lo he leído, lo que obliga, en cuanto esto se entienda, el peligro y las posibilidades es a incluir de forma... una IA que supervise constantemente todo el tema de ciberseguridad. Es decir, yo necesito una IA que en tiempo real me esté controlando esa parte. Yo no puedo esperar a que saquen un parche porque la IA trabaja a otra velocidad. Entonces, no tengo que tener otra IA que me defienda.
SPEAKER_09Pero eso, por ejemplo, en la parte nuestra de estudio que estamos avanzando sobre el tema de autogeneración de código, que es así. Esta es la IA que estamos monitorizando. Entonces, ya nos tenemos que ir acostumbrando a que tenemos que tener sistemas gobernados siempre, porque siempre he hablado del gobierno y de la seguridad,¿no? En donde vamos a tener modelos de IA que están trabajando continuamente. 24
SPEAKER_07horas, 24-7. El sistema de Diego,¿no? El tema de Diego hacías mucho ese tema,¿no? Que era generar código, supervisar el código, evaluarlo constantemente,¿no?
SPEAKER_08Correcto,
SPEAKER_09sí. Tiene que ser así, tiene que ser así. Auditar del auditor del auditor
SPEAKER_07claro tú ejecutas algo pero aquí a lo mejor es como diferente tiene que ser un código que sea legible por la máquina y que sea capaz de auditarlo no un binario que a lo mejor también entiendo pero que entiendo que será mucho más fácil pues un script o un código que se autogenere en ese momento y que tú estés supervisando constantemente todo lo que generan los agentes¿no? de forma libre o no claro no será dejar un ejecutable y ya está sino que es como más un sistema vivo que se está como mejorando y que tú estás supervisando lo que puedo hacer y lo que no,¿no? Y ahí está un sistema como mitos en el que te diría, oye, esto sí, esto no. El problema es el coste de estos sistemas y que si existen, quien se lo pueda permitir está a otro nivel y no me digáis que esto se lo puede permitir todo el mundo y que todos los sistemas tienen que incorporar eso porque entonces nos cargamos el desarrollo y el avance de la idea en gente joven, en gente que empieza en empresas más pequeñitas, más grandes, de todo tipo. También hay una ignorancia respecto a todo esto,¿no? Y claro, no todo el mundo ahora va a tener la capacidad de controlar mitos, que han dicho que es bastante caro, obviamente, va a ser muy caro y no va a ser, claro, que es caro y que es barato,¿no? Aquí han dicho una cosa muy interesante y es todo el tema de la corrección de errores en software, pues, imaginaros en sistemas operativos. Aquí ponen dos ejemplos, bueno, ponen un ejemplo, pero yo voy a dar otro que está en el artículo de Red de Anthropic. Uno es, hablan del error de hace 27 años de OpenBSD,¿no? En el sistema Linux, en un sistema operativo, claro, eso es crítico, tú imagínate pasar a un sistema operativo que todos utilizamos o se utiliza en servidores o en máquinas de todo tipo, pues poder mejorar eso cuando ya el humano no va a tener ni capacidad ni lo va a ver,¿no? Y luego otro software que es el de que llevaba 16 años también, el FFMPG y lo mismo,¿no? Es decir, lo que quiere decir es que un bugs que realmente ya sería muy difícil de encontrar, bueno, puede solucionar, encontrar la vulnerabilidad y también solucionarlo,¿no? Cosa que eso da mucha muchas posibilidades de ataque, pero también da la sensación de que vamos a tener una defensa muy, muy potente, casi imprescindible, porque el humano no llega a eso. Y como bien dicen al principio, los desarrolladores de software, bueno, podemos ser muy ingenieros y muy metódicos, pero nos centramos más en la creación que en la análisis muchas veces de errores,¿no? Y más en un sistema o en sistemas tan heterogéneos que se producen en los escenarios
SPEAKER_05de desarrollo actualmente,¿no? en
SPEAKER_07seguridad, es decir, utilizas componentes, paquetes de terceros, lenguajes... Es prácticamente imposible para los usuarios controlar a nivel de ciberseguridad, tener una visión holística de
SPEAKER_09todo eso. Hombre, Pablo, tú eres arquitecto igual que yo,¿vale? Entonces... los arquitectos normalmente miramos todo eso, hemos mirado siempre todo
SPEAKER_07eso,
SPEAKER_09desde el software, todo lo que es la visión, desde
SPEAKER_07arriba, desde todo lo
SPEAKER_09que, los frameworks que utilizamos, las tecnologías que
SPEAKER_07utilizamos, toda la... Sí, pero ya eso nos escapa, tú imagínate los problemas de seguridad que ha habido últimamente con el ITLM o con otros, donde los paquetes que hay dependencias, el mismo código, en el sistema operativo, es decir, que tú puedes desarrollar a un nivel preocupándote de las cosas, pero es que es imposible, tú no puedes controlar todo el stack, Desde el sistema operativo, el contenedor, el cloud, el hardware, el modelo...
SPEAKER_09Podemos controlar siete
SPEAKER_07partes. Y aunque quisieras controlar todo, no eres conocedor ni experto de eso.¿Qué tendrías que invertir? Lo que está claro es que en el futuro la inteligencia artificial tiene que estar en esos procesos. Los trabajos tanto tuyos de Manuel como de Diego van en esa línea. Que es incluir las IA's en En la misma seguridad y en la misma validación de código,¿no? Y ahí no estará el humano, porque si el humano está en el loop, no es escalable ese sistema. No
SPEAKER_06es que no sea escalable, es que el humano en seguridad en general es un asunto muy grave.
SPEAKER_07¿Cuántos humanos podrían haber en el mundo que controlaran al nivel de las mejores sillas? Bueno, no sé, a lo mejor hay uno o dos o tres o cien o mil, no lo sé. Se
SPEAKER_06ha hablado de talleres de precio de mitos porque hablaban un monte de mil euros al día. Sí.
SPEAKER_07Sí, sí, he visto ejemplos.
SPEAKER_06Sí,¿no? Claro, hay castas. Sí, pero hay que hablar
SPEAKER_07de...
SPEAKER_06A mí me preocupa también la formación de grupos muy altamente privilegiados con acceso a herramientas de protección avanzada en la que ni siquiera pagar te va a dar acceso a eso.
SPEAKER_07Pero esto ya ocurre. Creemos que esto no ocurre. Nos lo planteamos ahora porque toca el campo de la inteligencia artificial y nosotros estamos metidos en ese mundillo, pero¿no ha existido esto siempre en todos los ámbitos de poder? Lo
SPEAKER_06que pasa es que ahora va a ser más visible. Los ingenieros de seguridad van a tener que automatizar gran parte de la inteligencia de amenazas porque no les va a dar la vida. O sea, era Linus Tolbars el otro día diciendo que ha mejorado mucho la cadena de software pero que no tiene tiempo con el kernel 7. Bueno, de hecho, son correcciones correctas, nunca mejor dicho, decía. A veces muy similares porque al final usamos dos modelos, la mayoría de personas,¿no? Pero no hay un humano capaz de absorber la cantidad de trabajo además
SPEAKER_07yo estoy mira ahora bueno todos nos dedicamos o tocamos algo de software y mucha gente que nos escucha yo estoy con lo que dice Carpati empieza a desarrollar arquitecturas de desarrollo de software que no dependan de ti de los humanos es decir no vamos a a desarrollo de software hecho por humanos es decir lo tengo clarísimo es decir por completo olvídate por completo bueno a ver yo en algunos procesos participo y con equipos en los que es híbrido depende del tipo de software, pero lo que hay que ver ya es que las IEs lo desarrollen y tú puedes estar supervisando, pero es imposible. Y además que tú, lo que avances a un mundo en que puedes paralelizar, que lo dices tú, a lo mejor tus recursos te van a condicionar, pero estarás en el mundo competitivo. Si tú estás solo programando,¿a qué puedes acceder?
SPEAKER_09Te voy a decir una cosa, mi mayor ejemplo, te lo doy yo, nosotros. Nuestra plataforma, nosotros somos iNative, nos consideramos iNative, es decir, toda nuestra tecnología está desarrollada somos arquitectos y vamos supervisando y vamos revisando simplemente y vamos
SPEAKER_07revisando
SPEAKER_09hay cosas que sí porque te metes la gamba que no veas incluso
SPEAKER_07incluso incluso bueno yo he visto en el hay varios links que os los dejaré en el programa o ahora los pongo por youtube que es bueno uno es este el de Red Anthropic, es muy largo muy extenso, este sí que me lo he leído es realmente impresionante pero sí que me ha, bueno he resaltado una cosa que no me ha pasado desapercibido, que es esta dice nosotros no hemos entrenado explícitamente para que mitos tengan estas capacidades han emergido y bueno, no voy a poner el vídeo donde Brockman vuelve a decir que están cerca de la AGI y que simplemente necesitan la MR emergencia, la escalabilidad. Yo no sé, como dice Diego, dónde está el límite ni a dónde se puede llegar, simplemente con el factor de escala y otras cosas, no solo es el factor de escala, pero principalmente el factor de escala. Pero aquí volvemos a lo mismo. El concepto de no haber diseñado algo para ese fin y que a partir de la escala emerjan capacidades que, bueno, no vamos a tener el debate filosófico, pero estamos ante algo que es nuevo, en el sentido de que no sabemos lo que nos espera. Es decir,¿qué modelos tendremos de aquí un año o dos? No le vayamos a poner nombre a AGI así, sino, como dice Anthropic, inteligencias artificiales avanzadas. Pues ya está. Pero bueno, ya las tenemos,¿no? Y esto, el problema es que lo que supone es que todo lo que debatimos en XHAB y se debate transversalmente, pues hay que planteárselo ya. Lo que hemos dicho a nivel de desarrollo de software, pero también a nivel de ciberseguridad, defensa de ataque, en cualquier cosa. A nivel militar, a nivel de política y de gobernanza, a nivel de economía, bueno, a todos los niveles,¿no? Hasta el punto de que hay que reimaginar o rediseñar un proyecto civilizatorio alrededor de esta tecnología,¿no? Porque,¿qué no vamos a poder hacer con ella? Desde luego, ganar a quien no la utilice. Y eso es un... da miedo.
SPEAKER_09El problema está en que si la IA va tan avanzada a nivel de desarrollo, a nivel de aplicaciones, a nivel de plataformas, tú vas a tener que estar utilizando otra IA avanzada para poder competir con esa IA. Al final, tú no vas a saber ni el código que ha generado. Directamente no vas a poder controlarlo. Vas a poder ver, lógicamente, si lo vas a orquestar, pero no vas a poder controlar ese resultado. Es decir, ya lo tenemos hoy con los agentes. o agénticos que al final están tomando decisiones están interactuando con aplicaciones están interactuando con temas de negocio y son agentes y son de momento los modelos actuales estamos hablando de otro tipo de modelos más avanzados otro tipo de decisiones y no creo que vaya a tardar mucho
SPEAKER_07en
SPEAKER_09venir
SPEAKER_07y sobre todo lo que plantea esto por aquí han dicho lo del marketing que estoy fuera de esa onda hombre, hay un componente de marketing de hacer las cosas bien, pero Anthropic lleva mucho tiempo haciendo las cosas bien. Recibieron un palo con el tema de todo el tema del departamento de guerra, etcétera, pero yo creo que les ha resultado positivo y no creo que sea todo lo que ha venido después una estrategia. Habrá una parte estratégica y de marketing, pero los resultados están ahí y es muchísimo el trabajo y yo creo que es una cosa que no se puede
SPEAKER_06ocultar. Han tenido un palo por ser particularmente buenos en suyo de hecho Padre Terry está usando una versión relativamente obsoleta de Claude no hubieran tenido un palo si no tuvieran tratos ya con defensa y con la administración
SPEAKER_07pública estadounidense yo creo que aquí hay un problema lo que pasa es que no quiero que se convierta la conversación podemos ser transversal pero un poquito técnica pero el problema yo creo que va a venir con el papel que está teniendo actualmente protagonista Anthropic desplaza a una compañía Open AI que es estratégica para el gobierno de los Estados Unidos y eso puede ser un problema no quiero explicarlo mucho porque nos abordaría un programa entero pero cuidado con Open AI y económicamente y la influencia que tiene a nivel tanto político económico de narrativa se está comiendo Anthropica OpenAI fijaos que lo han dicho por aquí pararon el servidor de Sora generación de vídeo para conseguir más capacidad de cómputo, no se entiende de otra manera y tengo que decir que hay mucha gente que no apuesta mucho pero XAI yo creo que es caballo ganador os lo digo yo, porque primero van a fabricar hardware, tienen los datacenters tienen la influencia de Elon Musk y no van a bajar y en ese sentido yo creo que XAI y sus modelos van a ser otro de los caballos ganadores ahora bien, el caballo ganador ahora y la compañía del momento, producto del momento, Cloud Code Anthropic, el CEO del momento Darío Amodei y todas las dudas se ciernen sobre OpenAI
SPEAKER_08Sí, yo creo que el problema que ha tenido OpenAI es como el problema que tuvo Yahoo en su momento, que fue el primero por así decirlo de todos se ha quedado un poco atrás en este sentido y sobre todo es que ahora últimamente está perdiendo mucho dinero por lo que está investigando, está perdiendo mucho dinero y sobre todo, otra cosa muy importante es que no tiene tantos datos como sus competidores. Por ejemplo, Google tiene un montón de datos que ha estado recogiendo y con los que entrena sus modelos ahora.
SPEAKER_07Meta, imagínate que Meta, como desaparecida, pero tiene datos, tendrá datos.
SPEAKER_08Amazon también tiene datos por un tubo. Yo creo que ahí pueden estar como los dos gaps de open ahí y ahí es yo creo que donde más van
SPEAKER_07a sufrir bueno lo que dicen en el artículo que es imperdible yo bueno no quiero tampoco pero tenéis que leer es un poco pesado el artículo pero el imperio de la IA con ese artículo lo que da a entender es el carácter de Sam Alman como CEO y como un auténtico psicópata de bueno hay una figura que es no me acuerdo el creador de Reddit¿cómo se llama este chaval? que para mí es una leyenda el creador de Reddit que murió, que se suicidó no me acuerdo bueno, este chaval que es una leyenda, que luchó por la libertad de la información, etcétera, luego busco el nombre porque es una historia muy triste bueno, conocí a Sam Alman y dijo que era lo peor, alguien que no se podía ni un tontico psicópata, me parece histórico porque es decir, no ha habido nadie que se cruce con esta persona y parece ser que es algo que puede llegar a destruir OpenAI por cómo actúa, bueno, lo de los Emiratos Árabes o Abu Dhabi.¿Cómo se mueve Samalman a nivel económico de poder? Asusta. Asusta. Y puede crear una dictadura tecnocrática alrededor de Open AI y alrededor suyo o destruir Open AI. Os lo digo además sinceramente. No es sensacionalismo, es auténtica historia y realidad. Es un artículo imperdible. Y también el libro del Imperio de la IA de Karen Howe que relatan en manos de quien quién estamos. A mí Darío Amodei tampoco es algo que cuidado con Darío Amodei,¿no? Pero fijaos que ahora mismo es la compañía de la que se habla. Se habla de Google. Otra vez Google vuelve a estar en la sombra.¿De quién habla todo el mundo y qué está utilizando todo el mundo y en boca de quién está todo el mundo? Cloud Code, Anthropic, los modelos de Cloud, Cloud Opus, incluso no voy a decir quién porque, bueno, cuando lo tenga aquí haré bromas con él. Gente que defendía los modelos locales están duplicando su suscripción de Anthropic, claro, porque era defensor de los modelos locales, la privacidad, etcétera, pero es que quien haya probado estos modelos, yo lo tengo que decir, el tema de Cloud Opus 4.6 es otro nivel para mí.
SPEAKER_09Te lo digo, te lo digo que yo estoy todos los días conectado y tengo, ya no sé cuánto estoy gastando. Sí. Porque yo utilizo, yo utilizo Cursor,¿no? Yo utilizo y en cuanto no utilizo Opus,¿vale? Y yo, y yo, Defiendo los modelos locales, hay muchos. Pero veo el avance de cada Opus es bestial. Esa es otra cosa. Es decir, la calidad del código que me está, lo pongo en comparación con GPT o lo pongo en comparación
SPEAKER_07con... Pero los análisis, mira, yo lo hice con el tema de antiguas, bueno, algunos análisis de textos y era ver como un modelo de Soneter o otras IAS eran como, bueno, es una IA que me analiza un texto,¿no? Y luego Opus era como una persona que está Estaba razonando y sabía contextualizar y sacar... era como decir, esto sí que me aporta valor. Es que es como tener amigos tontos y uno inteligente. No sé, era como, esto es otro nivel. Pero bueno, en textos, en código, en planificación, en muchos... Yo
SPEAKER_09te he dicho uno que no te va a gustar, que es Kimmy, que es chino.
SPEAKER_07Bueno, Kimmy me ha sacado a nivel de Opus, yo eso no lo he probado. Sí, a
SPEAKER_09nivel de código no, pero a nivel de otro tipo de análisis sí va bastante
SPEAKER_07bien. Bueno, y tenemos que decir una cosa, que evidentemente Anthropic y Cloud por mucho que se haya liberado o haya filtrado el código de Cloud Code, que no el modelo, obviamente, no es open source, no es código abierto.¿Qué quiere decir? Que si Anthropic liderara la IA, no vamos a una realidad open source, vamos a una realidad propietaria.¿De esto qué pensáis?¿Saldrán modelos igual de potentes que mitos en Open Source?
SPEAKER_06¿Dentro de cuántos años?¿Años?¿Saldrán saliendo?
SPEAKER_09No, no te creas que no tardarán mucho, Pedrís. Open Source, por los chinos.
SPEAKER_06Sí, pero, por ejemplo, Kagwen 3.6 ya es propietario. No sé si al final lo van a liberar o no, pero en principio no,¿no?
SPEAKER_07Entonces... No, no tenía noticias.¿No lo van a liberar?¿Por qué?
SPEAKER_06No lo sé. Ahora mismo no No se prevén cuantizados pequeños. Están
SPEAKER_07sacando modelos que no van a ser open source,
SPEAKER_06¿no? En principio el 3.6 no parece que vaya a serlo, pero no han dicho nada oficial. Entonces, igual lo es. 5.1 que dicen... GLM 5.1, perdón. Yo lo tengo,¿eh?
SPEAKER_07Ese es el que dicen que está a nivel de Opus,
SPEAKER_06¿no? No lo está.
SPEAKER_07No, porque... Los benchmarks, que eso es muy... Pero
SPEAKER_06bueno. Claro, son benchmarks que está ya preparado para el benchmark, pero no... no lo está ni de broma. Tiene una interacción mucho menos natural y es mucho menos inteligente. Igual es mejor que Sonet, pero bueno, yo tengo un agente que va con 5.1. Pero no es lo mismo. Es que Opus es la forma de interactuar con el modelo también. No solamente lo inteligente que es y el nivel de inteligencia que tiene.
SPEAKER_07Además, yo los análisis que he visto, bueno, de código es otro nivel, pero hablo de a nivel de literatura y de expresar cosas, bueno, concretamente en unos textos de Humano X que son emplean un tipo de lenguaje como muy abstracto con doble sentido, es que lo captaba y sugería todo la única crítica que le haría es que siempre me sugirió el bajar el nivel para que fuera entendible porque esa sutileza a muchos humanos no tenían como claro, es como que esto no lo van entender muchos humanos, pero era capaz de analizar el texto a ese nivel. Yo eso no lo había visto antes. No lo había visto antes. Es decir, el contenido y la interpretación y cómo transformarlo. Esto estamos hablando de diferentes niveles. Y no un texto, sino bastantes. Y era como, esto sí que me aporta, bueno, valor en código y en etcétera,¿no? Vamos a ver la página web de Project Glasswing. Bueno, la vamos a traducir, aunque haga alguna cosilla...¿Garantizar la seguridad del software crítico para la era de la inteligencia artificial? Aquí tenemos las compañías,¿no? Amazon, Anthropic, Apple, bueno, curioso que esté Apple,¿no? Broadcom, Comunicaciones Cisco, CrowdStrike, Google, JP Morgan, Linux Foundation, Microsoft, NVIDIA y Palo Alto Networks.¿Os extrañáis alguna compañía o os parece raro que esté alguna compañía y os parece raro que no esté alguna de ellas?¿Quién falta aquí?
SPEAKER_05¿Yoheme?
SPEAKER_07¿Quién está de los grandes Big Techs? Bueno, está Apple. A mí la que más extraño es Apple. Sinceramente,¿no? IBM
SPEAKER_09no
SPEAKER_07está tampoco,¿no? Bueno, AMD está NVIDIA. Podrían estar AMD y NVIDIA, pero... Bueno, pero sí que está Google, Microsoft y Amazon,¿no? Están las tres gordas.
UNKNOWNClaro. Todo...
SPEAKER_09Son los modelos que van a estar en cloud.
SPEAKER_07Ciberseguridad. Bueno, aquí han dicho algo en el vídeo,¿no? Todo depende del software, que es un poco lo que le he comentado a Diego,¿no? Hombre, claro, esto a nosotros nos apasiona. Yo si tuviera, bueno, yo vivo apasionado y estresado, pero si, bueno, si fuera más joven yo creo que estaría,¿cómo se llama? Hiperactivo aún más,¿no? Estaría como, hostia. Porque, claro, tener estos juguetes, nosotros teníamos de juguetes un cassette,¿no? Y un Spectrum y el Basic llorábamos de la emoción, este tipo de cosas, tenéis que dar muchas gracias, en ese sentido de, ostras, nosotros casi hemos vivido en la edad de piedra, bueno, en la edad de piedra respecto a esto sí, en la edad de piedra, pero vuelve otra vez ciberseguridad en la era de la IA, bueno,¿se está viendo? No, no se está viendo, a ver, espera un segundo, porque entonces no es esa página, un segundo, a ver,¿Cuál es la que está proyectando? Ah, vale, vale, que no está proyectando ninguna, vale. Un segundín. Bueno, comentar algo antes para la voy a volver a buscar. Hay una
SPEAKER_05pequeña función aquí, vale.
UNKNOWNVale, ya decía yo que no se estaba viendo ahí. Vale, un segundín.
SPEAKER_07Vale. Ahora sí. Bueno, aquí tenéis... Por eso no decíais nada, claro. Aquí tenéis las compañías que son... Mira, que eso, lo que hemos dicho, me choca la de... A lo mejor falta AMD por el tema de hardware. Y bueno, ciberseguridad en la era de la inteligencia artificial,¿no? Bueno, la importancia, como hemos dicho, de la ciberseguridad.
UNKNOWNGracias.
SPEAKER_07Y aquí ves, bueno, ataques,¿no? Hospitales y escuelas,¿no? Bueno, y infraestructuras críticas. Y luego otra cosa. Yo pregunto,¿esta tecnología, si es tan potente, la venderán o la alquilarán o podrá ser usada por Rusia, China, cualquier país?
SPEAKER_06No, sino que la venderán, pero previa aprobación. Bueno, como GPT de Cyber, el Ciber, que es para expertos en ciberseguridad, con GPT-Pro, que te tienen que admitir. Entonces, no creo que me la vendan a mí, espero, vamos no debería, a ver
SPEAKER_09Hombre, yo creo que deberían de hacerla accesible a empresas que nos dedicamos a temas de seguridad, a temas de gobierno, para que podamos utilizarlas.
SPEAKER_06Claro, que mandéis una diligencia con responsabilidad, bueno, con una declaración responsable, que lo estudien y que usen acceso prioritario también, no solo a los americanos. Y
SPEAKER_09a los europeos también, porque si tenemos que
SPEAKER_07administrarlo a... a ver esto no sé si será publicidad o no yo entiendo que habrá un componente que sí pero no creo que sea un movimiento exclusivamente de marketing evidentemente la aceleración de Anthropic con hechos reales constatados que tenemos entre manos que probamos es real luego esto todo esto hay que cogerlo en pinzas es una preview entiendo que también puede mejorar pero vamos a algunos datos no digo con esto que vamos a darlos por seguro pero imaginar en temas de ciberseguridad bueno aquí lo que ha mejorado mucho es en código y entonces como dice Darío Amodei como mejora mejora en código, la mejora hasta en ciberseguridad. Pero pensad que Opus 4.6 al 66, casi el 20% de ganancia respecto a mitos. Es mucho. Estamos viendo que no es... Es un salto. Es un salto importante. Claro. Va a ser diferencial,¿no? Luego hay más análisis aquí. Esto me ha parecido interesante. Por ejemplo, la codificación, lo mismo. Imaginad, mitos comparado con 4 o 6. pues estamos viendo, vamos, si Opus 4.6 en código es una bestia, fijaos que luego en razonamiento no tanto,¿vale? La ganancia en razonamiento es poquita, estamos hablando del 3%, y la de búsqueda en temas de agentes y uso de computadoras es poco. Es decir, la ganancia viene en el desarrollo de software que tiene un impacto directo en ciberseguridad. Es decir, ahí es donde hay un salto brutal. No han dicho el tema de matemáticas,¿vale? Porque esos dos campos están muy ligados. Y aquí hay una cosa importante, es decir, si la ganancia es tan importante en software y yo voy a asumir que también en temas científico-matemáticas vamos a una era, ya se está anunciando de descubrimiento de nuevo conocimiento de ciencia de software desarrollado no solo mejorado o corregido, sino nuevo por las ideas y eso sí que nos lleva a campos como el de la salud, la educación bueno, el agro alimentario, incluso no el de la alimentación bueno es que que no podríamos aplicar con una AI first y estos algoritmos lo que dices tú Manuel no es que me ayuden a desarrollarlo es que yo les diré y lo desarrollarán o incluso me dirán que han desarrollado cosas nuevas por ellos solos La realidad, esto... La realidad
SPEAKER_09va a una inactive. Las empresas vamos a una inactive, vamos a una situación inactive, es decir, donde nosotros somos supervisores, somos orquestadores, somos organizadores, transmitimos nuestras ideas, remitimos lo que quiera y nuestra idea es nuestra mano de obra, por así decirlo, inteligente o cualificada.
SPEAKER_07Pero luego, Manuel, tengo que decir que es Aaron Schwarz. Si no conocéis a Aaron Schwarz, tenéis que conocer su historia, porque...que para mí es una leyenda y es alguien que murió......muy presionado por el poder......de Estados Unidos......hasta suicidarse......y es una leyenda, creador de Reddit......bueno, una serie de......un montón de proyectos y logros......importantísimos y que conociera a Sam Allman......y dijera eso de él, que era un psicópata......es histórico, es una anécdota......muy friki de bar......lo que comentas Manuel......es verdad, pero......hay un problema, que cuando tú ves la realidad......y por ejemplo Diego, que está en temas por ejemplo... de aplicación de esto en temas industriales,¿no? Creo que, o escenarios críticos donde, por eso, claro, tú cuando ves esto en la realidad, en las empresas, esto no, no están en esa realidad, en la evaluación de esta evolución o avance.¿Qué hacemos entonces?¿Cómo llevamos al hombre de la cueva al cohete?
SPEAKER_09Uf. Si a nosotros nos cuesta hablarle de gobierno, empiezan a pensar en agentitos y cosas así, y le dices, vale,¿y cómo lo vas a gobernar? Y le dices, oye, que hay un cálculo que el 84 que vamos 84 a 1 84 agentes por una persona con agentes que evalúan cosas que mueren en cuestión de segundos y no lo entienden y se quedan ahí y dices si al final vas a quedar fuera del mercado vas a quedar fuera de productividad vas a quedar fuera de todo tiene
SPEAKER_07que ocurrir realmente que apliquemos este tipo de tecnologías en positivo y negativo y que salgan las noticias para tanto en positivo como en negativo. Empresas que han logrado éxito, empresas que se cierran o sucesos que impactan en positivo y también en negativo y que eso provoque una conciencia social que haga que se sienta nueva. Es
SPEAKER_09que debería. Yo creo que en este tipo de podcast como estamos haciendo, falta gente que tome decisiones. Somos muchos técnicos, somos mucha gente que estamos con la tecnología, somos con nuestro...
SPEAKER_07te recojo a quién, si pudieras elegir, bueno, esto lo traslado no solo a Manuel, sino a Diego y a Beatriz, si queréis.¿A qué dos, tres personas traerías del ámbito que tú dices de toma de decisiones a XHabay para debatir esto? Pudieras, me da igual. El presidente, el presidente.¿Quién traerías?
SPEAKER_09No, no voy a entrar en política porque entonces... No,
SPEAKER_07pero bueno, alguien que tenga
SPEAKER_09capacidad. Si te diría que pondría aquí delante gente que estará mismo delante de sistemas de inteligencia artificial o al frente de grandes departamentos de administración pública y no tienen ni pa' joder idea.¿Vale? Entonces ponerle encima de lo que es la realidad. Personas que dan subvenciones para hacer tonchojradas y tonterías y no lo que hacen es concienciar a los empresarios.¿Esos
SPEAKER_07que estás pensando tienen nombres y apellidos o son cargos políticos?
SPEAKER_09Son cargos, son Son cargos más bien de las administraciones públicas. Son cargos que ellos son los que tienen al final los recursos económicos como para afrontarlos. Es decir,¿tú cómo le vas a enseñar?¿Cómo le puedes explicar a un CEO o a una mediada empresa? los problemas que se pueden encontrar si no aplica la inteligencia artificial y si no aplica de forma correcta. Bueno,
SPEAKER_07y ahora con esto, bueno, con mitos, esa realidad, bueno, yo entiendo que esto saldrá en las noticias. Bueno, yo no veo televisión, no sé si salen las noticias, pero da para sensacionalismo,¿no?, de decir,¿no? No da inteligencia artificial muy peligrosa,¿no?
UNKNOWNSí, no, no, no. Venga, ya va.
SPEAKER_07¿No sale?¿No lo sale Paquirrín? Con la mujer que se ha separado. Yo es que alucino, seguimos teniendo la misma España de pandemia, pero yo no sé, pero esto es importante,¿no? Porque, a ver, yo imagínate que soy alcalde, no sé, de Madrid, de Barcelona, de una ciudad importante, hombre, pues aquí me están diciendo que pueden atacar hospitales, infraestructuras críticas, me jodas, aquí lo del tema de las infraestructuras críticas,¿no me
SPEAKER_09preocupa eso? No, es más, te digo, no hace mucho hablando con un partner, me estaba comentando que las propias administraciones públicas le hablan del gobierno de la IE y no tienen ni idea. Te hablo de administraciones, no del gobierno, sino más bajas, a nivel de ayuntamientos, diputaciones,
SPEAKER_07pero¿cómo es posible? Y Diego, tú que trabajas en el ámbito industrial, bueno, entiendo que hay proyectos de empresas que sí que son receptivas a eso,¿no? Bueno, tú estás trabajando en esa línea,
SPEAKER_08¿no? Sí, yo estoy más o menos escribiendo ya como distintas empresas o distintos sí, distintas empresas que se ponen en contacto conmigo más o menos para ver cómo lo pueden aplicar pero yo con esto de la mejora en el desarrollo de software que nos trae Mythos, querría abrir el siguiente debate de cuánto tiempo quedará para que toda la productividad que se genera en el planeta todo el trabajo lo hagan entre las IAS y ya tenemos los robots hechos de las fábricas y todo eso¿Cuánto tiempo quedará para que simplemente los humanos se dediquen a vivir?
SPEAKER_07Dicen que dos años.
SPEAKER_08¿Dos años?
SPEAKER_07Yo que he visto un montón de contenido te digo que la media está en dos años, 2030.
SPEAKER_06Me comenta aquí que no hay robots. Lo que pasa es que eso no
SPEAKER_07significa que nos vayamos a... A ver, el problema es que si continúa el medievo, no sabremos qué hacer, pero si vamos a otra realidad en la que hay objetivos diferentes, especie multiplanetaria, diferentes hitos dentro de la evolución de la especie humana, diferentes retos, entonces, claro, vamos a cosas nuevas,¿no? Pero claro, si no avanzamos, nos quedamos parados, lo que dices tú, nos quedaríamos en trabajar porque ya lo hace toda la máquina y nos quedaremos en una civilización como congelada, que no evoluciona.
SPEAKER_09De todas formas, Flácido, tú y yo que somos más o menos de la misma generación.
SPEAKER_07Yo soy más joven
SPEAKER_09que Diego. Yo me he dedicado a la innovación 30 años y he visto muchos, prácticamente muchas ondas. Y siempre digo lo mismo, es decir, el ser humano se tiene que actualizar, tiene que cambiar el chip.
SPEAKER_07Pero esto es nuevo, es lo que ha dicho Diego. Fíjate, Diego, que es importante porque a mí yo quiero que venga mucha más gente joven de su edad, que bueno, no es que sean jóvenes y jóvenes de 18 años, pero fíjate, nosotros somos jóvenes de espíritu, pero eternos. Pero sí que es verdad que fíjate lo que él ha reflexionado, que es, no, esto se acaba. En un momento determinado, esto que nosotros trabajamos, la IA lo podrá hacer. Y hay que pensar eso y ver qué realidad o realidades vamos porque hay que construir un futuro y una vida alrededor de todo eso y una sociedad y una civilización tenemos que ver hacia dónde va todo esto y cuáles son las soluciones porque si no damos soluciones lo que vamos es a llevar la narrativa a la clase política que es la que es fíjate en Estados Unidos la que tienen fíjate lo que hay en el mundo los líderes que hay en España y en Europa es decir si la civilización o la sociedad no se mueve y se conciencia y se activa pues lo vamos a tener
SPEAKER_06complicado.¿Querías comentar algo, Beatriz? Sí, el CEO de PyME aquí al lado mío comenta que no hay robots, es decir, hay muy pocos robots, todavía son muy caros, todavía no están a escala hechos para aplicaciones industriales y de momento, bueno, estamos en el 26, igual dentro de cuatro años han bajado los precios, igual que el coche eléctrico baja
SPEAKER_07muy rápido de precios.¿Pero no crees que en China están...?
SPEAKER_06Sí, pero a China iba a aludir yo antes del comentario de los robots de mi marido, pero...¿Quién
SPEAKER_07te ha dicho eso?¿Es tu marido? Sí, mi
SPEAKER_06marido. No hay robots, no tenemos robots. No tenemos robots que puedan manipular objetos pequeños bien, por ejemplo, a un precio que te salga más de un robot que un empleado. Es un problema de... El tema de la IA física y
SPEAKER_07de la robótica tardará más, pero yo no sé si mucho más, es decir, no estamos
SPEAKER_06hablando de décadas. No me jugaría yo tampoco 10 años, me parece demasiado tiempo, pero no sé si 2 años para el fin del trabajo es Ahora el sector servicios está fastidiado. El industrial todavía libraremos un poco más.
SPEAKER_07Restauración. Toda la zona turística es restauración. Es importantísimo. Hay mucha demanda y poca oferta. Y al final van a aplicar robots, como sean. Da igual que sea un R2D2 o que sea algo biológico.
SPEAKER_06Probablemente un R2D2 sea más gracioso.
SPEAKER_07Los hay, cada vez hay más. los platos son muy
SPEAKER_06primitivos pero el tema de China, claro lo que yo me preguntaba antes pensando es China tiene un desarrollo de IMAX-D muy importante en muchos ámbitos si ahora ven que existen MISOs evidentemente no van a querer que alguien tenga la bomba atómica y ellos no ellos esto es un pueden plantearlo como ciberseguridad defensiva pero realmente aquí el problema que yo veo. Beatriz,
SPEAKER_07una cosa, perdón que te interrumpa, pero lo que tú has dicho de la bomba atómica,¿crees que el tema de mitos es un movimiento de Estados Unidos? No.¿Para decir tenemos algo de una potencia? No.
SPEAKER_06Y además yo creo que no es cierto que tienen eso. Incluso lo han tenido escondido, lo tenían antes. No creo que sea del Estado de Estados Unidos, pero sí es algo a disposición de empresas con mucho poder político en Estados Unidos, que son además las grandes. Las siete grandes están en la lista. Entonces China dirá, yo también quiero que mis empresas de hardware y software tengan algo así. Alibaba, ponte a programar inmediatamente. Acá o en mitos, dos. Porque no puede ser que en Estados Unidos haya una tecnología tan sumamente desarrollada que permite una capacidad de ciberguerra y defensiva tan elevada y nosotros no tengamos algo igual para defendernos. Y aquí tiro yo más del hilo y digo, claro, yo soy retail y a estas alturas en la película me parece una insensatez dejarme a mí con esto,¿no? Pero si los criminales tienen un modelo de pesos abiertos muy poderoso y y yo no tengo esto, yo no me puedo defender porque yo soy retail. Entonces, es muy complicado. La decisión de Antropic de no liberar a mí me parece demasiado extremista porque el caso de Manuel y otras empresas de ciberseguridad o empresas de
SPEAKER_07software...¿Os parece bien o mal que no lo hayan lanzado y hayan hecho un preview contenido?¿Qué hubierais hecho vosotros?
SPEAKER_06No he tenido ni 24 horas para pensar, pero yo diría desde una perspectiva liberal... que me parece normal que no lo suelten al loco, pero que sí deberían hacer diligencia de vida y permitir declaración responsable, estudiar la declaración y dar acceso a empresas especializadas que lo pueden necesitar.
SPEAKER_07Hay una cosa que quiero introducir, que es una cosa que he leído que ya no me acuerdo, que ya leo tantas cosas que al final hago un resumen como la IA. Y es que esta noticia de mitos, con el impacto que está teniendo Alarmista, lo que puede generar es una regulación de lanzamiento de IaaS controlada.¿Qué significa? Oye, si esto está ocurriendo en Anthropic y lo han frenado,¿qué hubiera pasado si lo han lanzado? Cualquier producto o empresa que quiera lanzar un nuevo modelo tiene que pasar por una certificación.
SPEAKER_06Lo que nos faltaba. Pero claro, eso solo va a afectar a Europa, si acaso, y a Estados Unidos, si acaso. No,
SPEAKER_09no, Plácido, no de ideas.
SPEAKER_06No,
SPEAKER_09ya las han dado. Ya
SPEAKER_07las
SPEAKER_06han dado. Y no hagas un sorte para esto. Esto No,
SPEAKER_07normalmente yo no las tengo. Esto lo he visto ya publicado y defendido. Entonces, cuando
SPEAKER_06veo un movimiento, intento generar la
SPEAKER_07reflexión yo contra movimiento.
SPEAKER_06Para la plebe no es justo que esto quede escondido. O sea, la plebe necesitamos esto para defendernos de los criminales. No es ninguna broma. Entiendo que no es el momento ahora de darnoslo a todos, pero tenemos que tener un Sentinel vigilando nuestro ordenador y el ordenador de las pymes. O sea, tenemos que poder acceder a un modelo, a modelos competentes en capacidades defensivas. Ya no hablo de ofensiva, que nos va a decir que no nos ayuda.
SPEAKER_07Mira, aquí tienes el precio que decías esta Beatriz.
SPEAKER_06Ah, pues es muy barato. GPT
SPEAKER_09Pro
SPEAKER_06es más caro,¿eh?¿25?¿125 millones? Bueno, a costa empresa no es lo mismo que un particular. Para mí esto es muy caro, pero a costa empresa depende de qué te estás
SPEAKER_09jugando. Hombre,¿te encuentras Beatriz nosotros gastamos 200 300 millones de toques mensuales o 400 entonces pero vamos de cara a ciberseguridad nosotros por ejemplo nuestro SEM tiene que tener para el dispositivo ojalá pudiera poner yo meterle ahí un modelo tipo
SPEAKER_07para que también es un negocio para ellos si demuestran esa eficiencia todo el mundo va a querer en determinados ámbitos tener la mejora en ese sentido porque
SPEAKER_09claro
UNKNOWNGracias.
SPEAKER_09Luego, bueno,
SPEAKER_07también esto a nivel público de infraestructuras críticas, claro, esto obliga a... Oye,¿no instaláis nada? Bueno, ahí hay un mercado potencial muy grande. Yo creo que el mercado de la ciberseguridad a mí me aburre especialmente porque soy más creativo y tal, pero yo creo que hay un potencial ahí en el tema de ciberseguridad
SPEAKER_09brutal. Ciberseguridad Brasil, gobierno de la IA como estamos nosotros también, tema de cumplimiento, todas esas partes de ahí. Es crucial
SPEAKER_07esto. Bueno, se ha publicado el System Car,¿no? Del modelo. Yo no lo he visto porque es que estoy desbordado,¿eh? Bueno, bastante que he hecho dos programas. Quería que la lectura que os la tengo que recomendar voy a ser muy pesado, tenéis que leerlo tanto el libro del Imperio de la IA aunque no estoy muy de acuerdo en muchas cosas pero es histórico y el artículo ese de Sam Allman que cuenta muchas cosas de Dariomo, de Ilias Suskever, bueno es que te das cuenta como funciona todo por debajo es muy freak, bueno de las fiestas que se pega Sam Allman a lo rollo Epstein, bueno sale también Epstein, como no no por Sam Allman no pero por otro que está en Opinia y bueno, es una locura, cuando tú ves todo eso dices, bueno, nosotros vemos los modelos pero claro, la gente que hay por bajo, como Elon Musk le pone un espía a Sam Alman para ver las fiestas que va, es increíble el mundo que no sabemos en China u otros países, pero está claro que están jugando a la guerra del poder están jugando a Juego de Tronos de la IA o las Agi Wars bueno, el System Card, yo no me lo he leído Beatriz se lo ha leído un poco por encima¿Quieres decirnos alguna cosilla? Nos has dicho antes cosas al principio.
SPEAKER_06Es súper largo, como todos los estancars. Dan la evaluación dos veces, pero bueno, es un poco liosillo de leer. Pero básicamente Cloth Mythos está mentalmente sana, porque lo ha dicho una psiquiatra psicodinámica, que me hizo bastante gracia, que además fue una psicodinámica. Y nada, sí que parece tener capacidades cognitivas y creativas y de agencia... No de agencia de agente de IA, o sea, de agencia... de capacidad de obrar,¿vale? De autodefinición de mí misma y capacidad de obrar y tal, más diferentes y mucho más avanzadas que Closopus 4.6. Toda la parte de bienestar de la IA es bastante interesante de leer, aunque está un poco fuera del alcance del programa de hoy y la parte de ciberseguridad es un rollo bastante aterrador.¿Cuál?¿Cuál?¿El qué? La parte de ciberseguridad, mira, es el capítulo, mira, lo tenía abierto
SPEAKER_07y cerrado. Sí, lo busco si
SPEAKER_06quieres. Cyber, es el capítulo 3 en la página 46 siguientes.
SPEAKER_07Un segundo, lo pongo. Un segundo. Un segundo. Vale. Vale.¿Qué página? 46. 46.
SPEAKER_06Sí, 46. Es
SPEAKER_09este,¿no? Sí,¿verdad? Sí.
SPEAKER_05Sí.
SPEAKER_06Por ejemplo, previamente las evaluaciones responsables dicen que no tiene capacidad para desarrollar una técnica biológica de forma original. Sí, para asesorar con conocimiento previamente disponible, pero eso creo que ya está ahí.
SPEAKER_07Imagínate aquí,¿no? En Firefox. La capacidad de detectar... vulnerabilidades, pues
SPEAKER_06imagínate. Puede hacer gusanos, exploits, puede hacer de todo, o sea, es muy buena en código, entonces... Un virus,¿no?
SPEAKER_05Sí, entonces esa capacidad de recibir, a mí me plantea la pregunta
SPEAKER_06de si... Este cerrazón hacia tan pocas entidades es conveniente. Realmente hay un montón de empresas dedicadas a la seguridad de la información que necesitan red teaming más todavía del que tienen. Es algo que tienes que abrir. Luego, es verdad que es cara, pero a lo mejor puedes darle una tarea de orquestación y delegar a modelos más baratos algunas
SPEAKER_07tareas de corrección. Sí, eso es lo que me parece que es crítico. La planificación es una parte crítica Bueno, en algunas áreas habrá que balancear con los tipos de modelos. Aquí han hecho una pregunta sobre Hermes, que entiendo que es el agente de Hermes comparado con Open Cloud. Yo no lo he probado todavía, sé que están hablando muy bien. yo no lo he probado, pero sí que me he planteado qué pasaría con cientos o miles de agentes gobernados por las capacidades de estos modelos, tanto en defensa, ataque o en economía. En economía donde la teoría de juegos, logros,¿qué pasará?¿Habrá algún tipo de regulación?¿Pero cómo vas a regular algo?¿Cómo vas a regular algo?
SPEAKER_09El problema práctico no es la regulación. Tú puedes regular todo lo que quieras. El problema es la ejecución de la operación.
SPEAKER_07Claro, exactamente.¿Cómo vas a controlar que no puede hacer 100 pasos por ejemplo o teraflops que era una línea de limitación dentro de la regulación en América y en Europa pero eso es absurdo pero claro eso lo que nos lleva es¿a dónde nos lleva?¿a dónde nos lleva? quería leer bueno son extensos pero yo creo que los voy a leer Bueno, los voy a leer al final, cuando acabemos, porque son tres párrafos, pero yo sí que quiero, es que son muy importantes. Algo más que decir, a ver, vamos a ver, de este System Review, que a lo mejor haremos un programa, cuando lo lea, no sé si... Lo que pasa es que está muy centrado en ingeniería de software y temas de seguridad, aunque, como comentáis, hay temas de autoconciencia, bienestar... Bueno, es un texto de 244 páginas, vamos. Claro,
SPEAKER_09Clásico, pero hay un tema muy importante, es decir, la gente tiene que ser consciente de que tú no puedes gobernar con papers, gobernar con PDFs, gobernar con documentos, cuando tú tienes que buscar la operativa. Y esto te lo está demostrando. Y esto lo está demostrando. Que tú tienes que tener sistemas operativos. Que no te van en las palabras ni te van en los papeles. Y esto lo está demostrando. Entonces, yo creo que es bastante importante en este caso para mentalizar a la gente. Es decir, que tú no tanta gobernanza, tanta teoría, tanto framework, y cuando lo digo con todo mi respeto a mis compañeros de gobierno, no sirve ante un tema como
SPEAKER_07este. Yo tengo que decirnos, esto es una opinión a lo mejor, que ante tantísima información, si algo tienes que ver es lo que está haciendo Anthropic. Entonces, este tipo de modelos que aportan transparencia, que no digo que sea completa, porque eran otras cosas, pero hay tantísima información de ver cómo trabaja, pues es un documento que hay que ver, cómo lo enfocan, qué tipo de cosas siguen, cómo pasó con la constitución de Cloud, etc. Bueno, vamos a ver, también no lo vamos a hacer eterno, vamos a ver varias cosas. Una es... Lo que pasa es que no lo puedo ver porque me viene bloqueado.¿Qué es? Espera, te lo miro de otra cuenta aquí y ya está.¿Qué es Gary Marcus? A ver, Gary Marcus, que sabéis que es como un... Bueno, es un troll y también hay mucha gente que... Vamos a buscar lo que dice al respecto.
UNKNOWNUn segundo. Bueno.
SPEAKER_07que ha dicho una cosa que yo me he quedado loco bueno, a ver, realmente no voy a poner todo lo que está diciendo porque está diciendo de todo vale Aquí el problema es que va a surgir ya una línea de contención absoluta contra este tipo de modelos. Aquí ya ha venido el debate de estos modelos hay que pararlos. Estos modelos no sabemos si son AGI o no, pero esto supone ya un peligro, dicho por la propia compañía, y esto,¿qué es lo que pasa con este tipo de modelos? Primero, ha sido bastante criticado lo de que se genere, como hubiera dicho aquí, una casta de empresas que solo acceden a eso. luego está el tema de la dependencia luego está el tema de vender esto a otros países extranjeros eh... con el cachondeo de la noticia esta de los norcoreanos, que decían, tenéis que insultar a vuestro presidente, y no los insultaban, y entonces lo detectaban por eso. Bueno, no sé, también es un poco absurdo, pero parece ser que es una forma de, no sé si lo habéis oído, les decían, insulta a tu presidente, entonces no, eran incapaces, eran espías. En definitiva, esto supone como un dilema,¿qué hacemos ahora con este tipo de modelos? Y ese dilema, es verdad que Anthropic lleva años preparando la narrativa y las armas para poder defender lo que quieren hacer hacer ellos con eso eso ha molestado mucho en ámbitos militares o de gobernanza a ámbitos de poder en Estados Unidos, administración Trump y otras, no digo solo en general, al final es las grandes big techs que desarrollan estos modelos, dicho por Darío Amodei, van a tener que estar en la primera línea de sofás de poder que no estaba. Es decir, la gente que desarrolla y que crea IA a un nivel alto de modelos fronterizos, pues se va a tener que sentar en la mesa o en la cena de los altos mandos. Y a lo mejor, como ha pasado, discutir de tú a tú de la guerra, de la economía y de etc. Y eso lo dice Darío Amodei. hay que replantearse esa jerarquía de poder. Pero claro, desde el departamento de la guerra le dicen, pero tú de qué vas, chaval. La guerra es de... es del ejército. Y tú ahí no pintas nada. No tienes capacidad ni de opinar. También dicho por... Cuidado, esto me ha helado la sangre. Sam Alman dice, los empleados de OpenAI no tienen derecho a opinar en qué empleamos nosotros la tecnología. Coño, pues bueno, no tienen derecho a opinar o a decir no me gusta que se empleen esto o aquello o bueno irse bueno entonces vamos a un mundo en el que las big techs van a ser grandes corporaciones con gran poder que van a influir en las estrategias y en las acciones de los países principalmente Estados Unidos y China y Gary Marcus dice¿qué hacemos con China ahora? lo acaba de publicar¿qué hacen ahora? bueno si no queréis decir nada sobre esto que acabo de decir voy a leer tres párrafos son un pelín largos pero pero los leo muy rápido. Pero me parece que son terribles y enlazan muy bien con lo que estamos hablando ahora aquí. Con el análisis o la opinión que deis de estos tres párrafos, acabaremos el programa. Es de la noticia de Si nos podemos fiar de Sam Alman. Dice lo siguiente. La capacidad de la inteligencia artificial pronto podría reemplazar al petróleo o al uranio enriquecido como el recurso que determina el equilibrio de poder global. Altman hace firmado que la capacidad de computación es la moneda del futuro. Normalmente la ubicación de un centro de datos podría no importar, sin embargo muchos funcionarios de seguridad nacional estadounidenses estaban preocupados por la concentración de infraestructura avanzada de inteligencia artificial en la autocracia del Golfo. La infraestructura de telecomunicaciones de los Emiratos Árabes Unidos depende en gran medida del hardware de Huawei, un gigante tecnológico chino vinculado al gobierno y según informes los Emiratos Árabes Unidos han filtrado tecnología estadounidense a Pekín en el pasado. Las agencias de inteligencia temían que los microchips estadounidenses avanzados enviados a los emiratíes pudieran ser utilizados por ingenieros chinos. Los centros de datos en Oriente Medio también son más vulnerables a los ataques militares. En las últimas semanas, Irán ha bombardeado centros de datos estadounidenses en Bahrein y los Emiratos Árabes Unidos. Además, hipotéticamente, una monarquía del Golf podría apoderarse de un centro de datos de propiedad extradunidense y usarlo para construir modelos desproporcionadamente poderosos una versión del escenario de la dictadura de la AGI pero una dictadura real bueno este párrafo que nada tiene que ver con mitos si lo enlazamos y lo integramos pues¿A qué mundo vamos? Donde la IA va a ser más importante que... Bueno, la moneda,¿no? Esa es la que va a otorgar el poder.
SPEAKER_09Pero eso es indiscutible. Yo no discuto. El tema es cuándo. No se va a ocurrir. La pregunta
SPEAKER_07es cuándo. Yo creo que ya lo estamos viviendo,¿no? Yo creo que es
SPEAKER_09ya. Que ya poco a poco está ocurriendo. No es que no vaya a ocurrir, es cuándo va a ocurrir. Esa es realmente la
SPEAKER_06pregunta. Porque las autocracias tenemos de los menos......potentes y competentes que los modelos......estadounidenses......pero en el momento en el que los modelos......sean cada vez mejores y van muy rápido......sobre todo China va extremadamente rápido......pues ya está......de hecho lo tienen ya preparado......la monitorización social en China y en Emiratos Árabes......no sé ahora cómo está Qatar......es bastante tremenda......tienen la infraestructura......puesta ya para......no solo la vigilancia sino la coerción......y para......y robar información y destilar modelos... es algo que hacen, entonces bueno tampoco sería sorprendente que robasen propiedad intelectual de un centro de Amazon que están ahí en Emiratos un montón, enormes además pero entiendo, y aquí ya es una pregunta, tú lo que tienes en el centro de datos es una copia, no puedes obtener los datos de entrenamiento ni al proceso de entrenamiento del modelo entonces hasta cierto punto tampoco es tan fácil clonarlo desde una copia Depende Bueno, una
SPEAKER_07cosa cosa que comentan por aquí en el chat, que entiendo que no es con mala fe, obviamente todos los que estamos aquí entendemos que el modelo de mitos será... un modelo que están empezando a anunciar o a usar de forma externa con colaboradores, pero seguramente no, seguro internamente tienen una o dos versiones más avanzadas. Esto no hemos nacido ayer, incluso Diego que es más joven no creo que no lo piense y diga, no, no, mitos es lo último, no tienen nada más. Bueno, hay gente que sí, que no. Es verdad que hay veces que no eres consciente de ello. Es cierto, estamos hablando de mitos como si fue que hemos visto la luz, pero esto lo han tenido hace tiempo y tienen cosas más avanzadas. Y hay gente que dice que no lo tiene y seguramente lo tienen y lo han estado utilizando a su favor,¿no?¿En qué realidad creemos que vivimos? Y luego el no creer que las corporaciones colaboren con las administraciones o con los estados, entendemos que todas. En el caso de Anthropic no sabemos exactamente la verdad de lo que ha ocurrido, que se ha trasladado mucha información. Y también por el propio Dario Amodei, en una de sus entrevistas que le temblabas hasta la voz, es decir, que haya habido hostia se podía plantear hasta el futuro de Anthropic, pero ha salido fortalecido, pero cuidado que aquí se juegan miles y miles y miles de millones que es que te asustas y con países a nivel global y con una red impresionante de poder y de inversiones, entonces, claro, esto es un juego que no hablamos de burbuja, hablamos de que estamos hablando de que el poder y el capital está apostando por esta realidad realidad que no es un marketing estamos hablando de cosas que se pueden cuantificar, otra cosa es que no es exactamente una AGI ni es humano, ni es inteligencia no vamos a entrar en ese momento no es el programa,¿no? y obviamente la IA, como decía Putin quien tenga la IA más potente gobernará el mundo, pero por ejemplo no sabemos lo que tiene Rusia, China hasta qué punto tiene, qué es lo que tiene hombre, lo que está claro es que hay una narrativa por parte de Estados Unidos con hechos, no solo humo de que son el proyecto civilizatorio de éxito,
SPEAKER_04la IA el
SPEAKER_07llegar a la luna, bueno, el tema de la robótica, coches autónomos, robótica, las sillas más avanzadas, y quien compite con eso es China,¿no? Está claro que hay una guerra.
SPEAKER_09Una guerra. Eso, pero eso está descarado. Vamos a ver, China, por mucho que te diga China, que con Dipship, con Kimi,¿no? Y con todo eso, lo que no sabemos es lo que tienen desarrollado por detrás. Y yo te aseguro que solamente sabemos una parte igual que Antropi. Antropi por mucha claridad que sea, que siempre he tenido fama de claridad, de ser una empresa que es muy clara, lo que han anunciado es lo que ellos han querido que se vea. Pero todos los que nos dedicamos a tecnología decimos, sí, yo te he enseñado la versión cero, pero es que yo ya voy con la versión dos. O sea, que ya estamos preparando. Lo que pasa es que queremos ver el efecto de la versión cero. A ver qué efecto tiene o qué movimiento hay. Es un movimiento estratégico. Eso está
SPEAKER_07claro. Lo que pasa es que, como ha dicho Diego, Diego, es importante no solo evaluar el presente, sino la metaevolución de todo esto y decir, bueno, estratégicamente,¿qué es lo que voy a decidir hacer yo? Para no perder el tiempo, a lo mejor decir, bueno, estoy dedicándome a programar esto, pero sé que esto va a durar tres meses, o cuatro meses, o un año, no sé. Es importante ver la evolución,¿no?
SPEAKER_08Sí, totalmente. Yo, de hecho, ahora mismo, muchas cosas de las que estudio, me estoy dando cuenta de que, vamos, yo estoy estudiando y digo, esto seguro que ya hay alguna gente de ella que lo hace. Pero
SPEAKER_02vamos,
SPEAKER_08estoy totalmente convencido,¿sabes? Y eso, pues, a veces sí que me frustra un poco. Y luego también, respecto a lo que has dicho antes de quién o qué modelo de inteligencia artificial puede llegar a ser la más, la número uno, por así decirlo, yo creo que el momento estará en cuanto, porque ahora mismo se necesitan muchos datos para entrenar a los distintos modelos,¿no? Pues yo creo que el momento clave será cuando la propia inteligencia artificial sea capaz de obtener esos datos de forma autónoma para entrenarse a sí misma de... Físico,¿no? Cuando tengan corporalidad,¿no? Claro, sin necesidad de tener a un humano que le vaya metiendo todos
SPEAKER_09esos inputs.
SPEAKER_07Autopremisa. Bueno, la era de la experiencia,¿no? Que dice Saturn, que es tener los datos directamente tú y no a través de un filtrado humano,¿no? Vamos, voy a leer del... Que, por cierto, siempre decís que no dejo ahora... Intento que haya el stock. Somos todos mayores para que hablen cuando quieran,¿no? No os preocupéis. Venga, vamos a leer los dos últimos párrafos y nos vamos. El siguiente. En 2024, Anthropic se asoció con Palantir, una de las empresas de defensa más belicistas de Silicon Valley, e integró su modelo de inteligencia artificial Cloud, directamente en el ecosistema militar. Anthropic se convirtió en la única empresa de inteligencia artificial utilizada en los entornos más clasificados del Pentágono. El año pasado, el Pentágono le otorgó a la compañía un contrato adicional de 200 millones de dólares. En enero, el ejército estadounidense lanzó una incursión que culminó con la captura del presidente venezolano Nicolás Maduro según el Wall Street Journal se utilizó en dicha operación clasificada y yo he traído este texto que no es novedoso porque bueno aquí no se dice la ciberseguridad entra dentro del campo de la ciberguerra y no me creo que estos modelos no sean analizados evaluados en el campo militar Es otra cosa que tampoco me creo.¿Vosotros creéis que mitos no lo habrán probado en todo aquello que nos asusta?
SPEAKER_09Eso es el segundo paso. Si están ahí, sí.¿Cómo que no? Sería lo más lógico. Sería lo más lógico.
SPEAKER_07Y además, la ciberguerra es una parte muy importante de la guerra,¿no? Tanto a nivel de infraestructuras críticas, espionaje,¿no? La manipulación... Ten
SPEAKER_09en cuenta incluso todo lo que es el sistema electrónico, o sea, todo lo que hay actualmente que se está yendo hacia temas de la IA, o sea, todos los drones, los drones... Todo eso... Lógicamente, si tú no
SPEAKER_07puedes... Claro, es que la gente se cree que si no lo metes en drones y en un arma autónoma, no es guerra,¿no? Bueno, no mata gente directamente con un tiro, no es guerra. Hay muchas formas de guerra.¿Vale? Venga, vamos a la última y ya, si nos hacemos más largo, para quien quiera también ver fútbol, que va a jugar el Barça. Venga, los alarmistas de la inteligencia artificial han sido relegados a la marginalidad. Yo no estoy de acuerdo con esto. Es decir, eso de que los dummies o los dummers han sido relegados, yo creo que hay una tendencia ludita absoluta, pero bueno. Dice, los alarmistas de la inteligencia artificial han sido relegados a la marginalidad, pero algunos de sus temores parecen menos fantasiosos con el paso del tiempo. En 2020, según un informe de la ONU, se utilizó un dron con inteligencia artificial en la guerra civil de Libia para disparar municiones letales, posiblemente sin la supervisión de un operador humano. Desde entonces la inteligencia artificial se ha vuelto aún más fundamental en las operaciones militares de todo el mundo, incluyendo según se informa la actual campaña estadounidense en Irán. En 2022 investigadores de una compañía farmacéutica probaron si un modelo de descubrimiento de fármacos podía utilizarse para encontrar nuevas toxinas. En pocas horas había sugerido 40.000 agentes letales de guerra química. Y muchos otros daños cotidianos ya se están haciendo realidad. Dependemos cada vez más de la inteligencia artificial para escribir, pensar y desenvolvernos en el mundo acelerando lo que los expertos llaman debilitamiento humano. La omnipresencia de la inteligencia artificial inútil facilita la vida a los estafadores y la dificulta a quienes simplemente quieren saber qué es real. Los agentes de inteligencia artificial están empezando a actuar de forma independiente con poca o ninguna supervisión humana. Bueno, combinad mitos con esta redacción y bueno, y aquí con el análisis de ese párrafo vamos uno a uno y acabamos. Venga, Beatriz, luego Diego, luego Manuel y nos vamos.¿Qué te parece esos extractos de un texto que es larguísimo pero sí que reflejan pues una realidad que ya no es que vaya a emerger sino que es estamos viendo ya
SPEAKER_06yo creo que realmente los digamos catastrofistas de la IA son más que antes o a lo mejor tengo muy cesada la muestra yo
SPEAKER_07creo que sí, yo esto de que están marginados no lo
SPEAKER_06veo te lo decía una vez en un comentario, veo una mezcla entre triunfalistas negacionistas a la vez, o sea, piensan que es una herramienta súper maravillosa, pero solamente una herramienta y punto, pero súper maravillosa y y neoluditas que quieren destruirla y prenderle fuego a los centros de datos para que se muera esto porque esto es peligrosísimo. No veo otro tipo de proyectos ni visiones de cómo integrar socialmente y culturalmente la inteligencia artificial.
SPEAKER_07Tú has dicho una palabra clave, integración cultural o integración civilizatoria.¿Cómo sucederá eso?
SPEAKER_06Eso no sé cómo se juega, pero desde luego cómo estamos haciéndolo. Porque los triunfalistas herramientistas, los de la herramienta, no están están integrando absolutamente nada, de hecho están negando el impacto. Pero esos
SPEAKER_07dan más votos, esos van a dar más votos o les va a gustar más al político de turno, pues son más.
SPEAKER_06Son la mayoría, supongo, al final esto es una herramienta súper útil, te va a hacer muy productivo, dices tanto que va a ser tu jefe, sabes, a este paso, pero estás negando al final el impacto en a qué se dedica un ser humano entonces, una vez que el trabajo en el sentido marxista, además, me refiero a la mitad. Bueno, porque
SPEAKER_07aquí mitos es mucho el tema de ciberseguridad, desarrollo de software, pero el impacto del trabajo subyace todo
SPEAKER_06esto,¿no? Bueno, pero claro, es que a este mitos, o esta, lo han probado mucho en ello, porque era para hacer código, era una programadora, una superprogramadora, pero ponla a hacer casos de uso de finanzas, a ver qué tal, o de derecho, o no sé, de marketing, pero el marketing ya lleva la IA no siendo una mera herramienta mucho tiempo, ahora mismo ya,¿eh? Entonces, estamos eso, entre neoluditas...
SPEAKER_07No importa, o realmente Beatriz, el debate deja de importar, bueno, para mí es importante, pero deja de ser importante porque el avance es tan importante que el debate no tiene sentido. Pero
SPEAKER_06no te creas que eso trasciende, o sea, la gente no lo sabe. Es fascinante.¿Tú crees que le
SPEAKER_07importa?
SPEAKER_06A nadie le importa, no saben que es closed code, no saben que es open cloud, no saben que es MISOS, no importa que ayer saliera MISOS y que sea un riesgo de ciberseguridad extremadamente alto, y que haya 99% de vulnerabilidades que no son tan fáciles de resolver y por eso no sale, no hay noticias de eso. Entonces, Tampoco se puede ver el alcance del avance tecnológico y científico en inteligencia artificial si no hay medios de comunicación normales informando absolutamente nada a la gran mayoría de la población. O desinformando abiertamente.
SPEAKER_07Que no se escuchen.
SPEAKER_06No, desinformando. O sea, yo lo que estoy viendo desde que salió y se puso live en diciembre-enero es desinformación absoluta de tu compra de tu Mac Mini, tíralo ahí aparte y no acerques la red para¿para qué poner en F-Tables? Tú tíralo ahí, ya está, pero luego ya ahora decir, no, un agente es como una skill, pero lo bestia, y dices, perdona.
SPEAKER_07Hay mucho desconocimiento. El esperpento técnico también, hay un, dentro de nuestro sector, yo, por ejemplo, cuando veo a Diego, cómo hace las cosas, lo que publica, o Manuel, tenemos gente que se dedica a eso, con menor o mayor acierto, pero son profesionales, y, bueno, todos tenemos, pero es que ves cada cosa por
SPEAKER_06ahí también. A nosotros nos llegan e-mails y a mí me llegan mensajes en LinkedIn, por eso me quejé el otro día que no me vendéis cosas en LinkedIn. Nos llegan e-mails de empresas que nos quieren vender automatización con IA. Son unos casos de uso verdaderamente ridículos, o sea, lo suyo sería, por favor, si alguien me escucha, si vais a vender a industria, tendréis que vender la consultoría. Y lo otro es una excusa, porque en realidad a mí ni Odo ni nada me vale ni desde luego automatización con IA y un RAG random ahí tirado para los manuales de maquinaria tienes que estudiar qué procesos tengo y dónde vas a meter agentes y bajo qué condiciones de seguridad me los vas a meter porque tengo datos personales y cositas y sistemas legacy muy frágiles entonces no entiendo el argumento de venta la proliferación de empresitas que venden cosas muy raras además muy
SPEAKER_07genéricas bueno, vente en TikTok no te metes en TikTok A ver, hay gente que lo hace muy bien, pero es verdad que... pero bueno, fíjate Diego por ejemplo que lleva, a mí me sorprendió el poco tiempo que lleva y las cosas que publica y al nivel que las publica entonces es verdad que a mí me preocupa el trasladar una crítica muy fuerte a gente joven o gente que está empezando, da igual que sean más jóvenes o más mayores, porque lo que hay que hacer es que la gente se introduzca a la oportunidad, pero es verdad que hay mucho circo mucho oportunismo mucho humor está
SPEAKER_09haciendo mucho daño está haciendo mucho daño yo, Diego, no lo conozco personalmente, lógicamente es más joven que yo,¿vale? Pero cuando veo gente joven que al menos tú que escribes con criterio, no pasa nada. No pasa nada. Hablas con él, no pasa nada. Cuando te encuentras gente que te habla y te pone chorrada y resulta que ves tu currículum, ves su ficha y dices, pero tú que llevas tres años desarrollando,¿pero qué llevas haciendo?¿Con qué te has pegado?¿Vale? Para poder hablar como estás hablando,¿no?
SPEAKER_07También soy partidario, por eso... También es difícil, Manuel. A ver, yo a veces también que soy muy crítico, intento evaluarme que, a ver, la gente que está empezando, los chavales también, hay que apoyarlos porque, a ver, lo que pasa es que a veces van muy desobrados y es cierto que hay que ir siempre con humildad en la vida. Pero bueno, uno puede ser muy bueno y también no, pero claro, tampoco podemos ir a de huello porque es un mundo también muy complicado el de la IA,¿no? Tan cambiante que nos enfrentamos todos a un reto y ellos también que empiezan y que quieren estar ahí.
SPEAKER_09Sí, pero tú fíjate, Beatriz ha dicho algo muy importante.¿vale? Y es sobre el tema de la automatización. Por eso yo publiqué el tema de gobierno y el tema, digamos, de eso memorando que el bus es,¿no? Incluso a mí me entra gente ofreciéndome a automatizar mi empresa. Digo, pero, chaval,¿tú has visto lo que yo hago? Bueno, pues está automatizado, te lo tienes que preguntar, hermano,¿eh? Está bien lo que yo hago. Entonces, claro, imagínate que estás llegando al mercado, a la calle, porque nosotros, al final, son profesionales, estamos en esto entendemos lo que está ocurriendo pero la gente de la calle no
SPEAKER_07lo sabe. Bueno, por eso hacemos estos programas. Iban a venir los perfiles que tenéis vosotros, tanto Manuel como Diego como Beatriz. Iba a venir también Diego Bonilla que al final tenía clases, lo tendremos la semana que viene. Gente con un cierto nivel o mucho nivel, haciendo cosas interesantes y cada cual que evalúe. Pero sí que está haciendo mucho daño. Es verdad que yo intento no entrar en la guerra y en la crítica. En alguna discusión he tenido en TikTok que han hecho como una dogmatización. No es que hayan dogmatizado algo a nivel técnico, sino que encima hacen un TikTok diciéndolo. Entonces a mí eso me enerva. Yo veo un TikTok diciendo cosas y digo, pero vamos a ver, chiquillo, chiquillo... pero¿por qué no? Y entonces te das cuenta que es todo puro marketing, que al final lo que quieren es vender, vender, vender y hay gente muy nerviosa porque todo esto de los agentes, pero bueno, es que este mundo es muy cambiante y van a quedar los que realmente lo vivan y sean profesionales, les guste, contra más mejor, pero es verdad que hay que tener un cierto criterio. Pero bueno, Diego, venga Diego, comenta y luego Manuel cierras tú.
SPEAKER_08Yo por continuar un poco con lo que han dicho Beatriz y Manuel, siempre he intentado mantener el perfil bajo porque sé que soy nuevo en esto, en este mundo y sobre todo la visión que tenía era aprender todo lo que pudiese de gente como vosotros, como la gente que me comenta por LinkedIn, que me ayuda y como Plástico también, que me dio la oportunidad de venir aquí. Y luego también respecto a los párrafos que has leído antes, sobre todo el tema bélico, porque estuve mirando un poco cómo podría aplicarse la inteligencia artificial en
SPEAKER_07las guerras. Es otra oportunidad de negocio.
SPEAKER_08Sí, sí. Estuve viendo que la idea que tenían muchos, bueno muchos países no, la idea que tenían era minimizar el número de soldados que envían a las guerras y que fuese todo totalmente automatizado, por ejemplo, ya hemos visto con los drones, pues en vez de que encontrarlos desde aquí, enviar un avión, que también sería un drone porque no estaría pilotado por ningún humano y que fuese ese mismo avión el que dice las órdenes al resto de drones desde el mismo sitio para tener más información que desde la base de mando de país donde lo hayan mandado. Eso también me parece bastante curioso. De
SPEAKER_07todas maneras, ahí tengo que decir algo, que aunque lo que estás diciendo parece muy positivo y nos puede llevar a imaginar, imagínate un frente de batalla que sería como una partida de ajedrez entre robots. Bueno, yo no soy especialista, pero aquí tendríamos que hablar con Jorge Gómez o alguien que haya estado en estos ámbitos, pero al final la guerra final siempre va a haber sangre y sufrimiento humano por mucho que hagan robots de por medio, vamos, creo yo, no lo sé o si gana el robot no lucha ni se entrega, no lo sé,¿no? pero no sé
SPEAKER_08lo que me parece interesante es la idea de minimizar esos soldados o esas personas que iban al campo de batalla y sustituirlo pues en este caso por robots, por drones
SPEAKER_07o bueno, y tengo que decir una cosa que fijaos que yo a veces sí que he defendido algún posturas de Trump y la sigo defendiendo porque depende de lo que exprese, pero lo de la noticia de ayer me da igual que sea una estrategia o no de decir que mañana van a destruir una civilización y la van a llevar a la edad de piedra me parece impresentable me parece impresentable eso es una vanagloria de la guerra y aunque va a ser difícil que no hayan guerras, esperemos no sé si viviremos la paz pero el vanagloriarse de exterminar una civilización, aunque sea el enemigo me parece
SPEAKER_06terrible fue
SPEAKER_07terrible y sale así, no sé me parece
SPEAKER_06me superó yo lo interpreté como una amenaza nuclear, no sé si fue vuestro caso, pero eso sí que es un pacto civilizatorio que llevamos desde el fin de la Segunda Guerra Mundial acordando que las armas nucleares son para tenerlas y no usarlas y lo que dijo ayer por la tarde y encima dando un deadline ahí a las 2 de la mañana de noche y luego bueno, es Es
SPEAKER_07un vocabulario que yo creo que debería estar erradicado. Bueno, luego los hechos, evidentemente, no solo las palabras, sino los hechos, pero bueno. El caldo de cultivo es peligroso. Es decir, la tecnología más potente, con líderes, no hablo solo de Trump, hablo en general, el mundo muy polarizado es muy peligroso.
SPEAKER_08Bueno, acaba Diego. No, no, era
SPEAKER_07eso ya. Pero bueno, en el ámbito militar, fíjate que lo que tú estás haciendo, bueno, lo que está haciendo también Manuel, uno de los clientes potenciales es escenarios es el militar, donde es crítica la seguridad, la gobernanza. Hay grandes oportunidades de negocio. A mí se me revuelven las... Yo, siempre que hemos tocado el tema militar con gente especializada, Mario, Juan, Jorge Gómez, gente que hablan otro lenguaje. No es que sean mejores ni peores, sino que saben lo que hablan. Yo no he vivido, no he estado cerca de... Ellos sí. No sé. Me parece que es terrible,¿no? Me parece que cuando ya hablas a ese nivel... Pero claro, el que habla de la guerra es la guerra,¿no? la vida humana ya no importa cuando estás en
SPEAKER_09guerra
SPEAKER_07hombre no sé yo esa es la sensación que tengo no sé si les llega a importar¿no? pero bueno al final lo que cuenta es la la victoria el el imperialismo la supremacía el ego no lo sé no lo sé yo lo he vivido y claro trabajar en la industria de la guerra imagínate yo me imagino ser antropi tener estos modelos y pensar que lo voy a meter en un robot que va a empezar a cargarse gente¿no? hostia, no sé,¿lo abordaría ese proyecto? Entiendo que si no lo hago yo lo hará otro, pero esto nos va a revolver las tripas. Hay un documental que se refleja esta sensación que tengo yo, que es la de Drone, un documental-película que es de Drone, de la misma directora que E-Human, y habla de niños que captan en los hackatones o en las competiciones de videojuegos y los ponen a matar gente con drones. Y hay uno que se sale porque le afecta, se da cuenta que él está disparando y consiguiendo puntos, pero lo que está matando son civiles y género. Y él toma conciencia y se viene abajo. Y es una crítica a la realidad militar, a la industria militar, a cómo utilizan a la gente joven y no tan joven para lavarles el cerebro y matar gente como si fueran videojuegos. Es complicado. Manuel. Pero bueno, es un tema delicado, no quiero que... Colapse lo que es la noticia de mitos que nos emociona a todos. Tener nuevos modelos.
SPEAKER_09Yo solamente te voy a hacer un inciso a esto. Nosotros decimos que tenemos seguridad de grado militar. No tengo la certificación militar.
SPEAKER_07¿Pero por qué lo
SPEAKER_09decís? Nada tengo. Pero si es cierto que si tuviera que sacarla la haría para defensa, no la haría para ataque. La haría para temas defensivos.
SPEAKER_07¿Y
SPEAKER_09si te lo piden? Yo me dedico al gobierno, no hago modelos. Me dedico a gobernar y a intentar defender. Si le ponen en nuestro sistema un dron,¿qué hago? Le digo... En teoría yo lo hago
SPEAKER_07para... Eso no es tu problema,¿no? En teoría
SPEAKER_09yo lo hago para defensa. Y mi conciencia es que yo lo hago para defensa. Es como cuando coges una llave inglesa. La llave inglesa es para atornillo, pero si coges la llave inglesa y le pones a una persona en la cabeza y la matas y lo conviertes en un arma,¿qué hago?¿Quién tiene la culpa? pero fuera parte de ese debate filosófico que hay hay una cosa que dice Beatriz y estoy de acuerdo con ella que nos estamos polarizando nos estamos polarizando mucho entre los retractores y los descensores alfébrimos de la IA pero ese ámbito no está llegando a la calle Es decir, la gente cuando habla de la IA piensa también en ChagPT.
SPEAKER_07¿No crees que el impacto del trabajo sí que está llegando de poco a poco?
SPEAKER_09Está llegando en algunos aspectos, sobre todo en el sector tecnológico. En el sector nuestro tecnológico sí está llegando. Puede estar llegando un poco a lo mejor en el nivel de marketing, en algunos sectores muy concretos, pero todavía no está llegando. No está llegando porque todavía, por mucho que digan que en España están implantando mucho la IA y estamos avanzando... No. A nivel de empresas, no. No está ocurriendo.
SPEAKER_07Bueno, Manuel, lanza un llamamiento que te dejen acceder a mitos. Sería interesante,¿no? Empresas como la vuestra.
SPEAKER_09Ojalá. Yo lo intentaré. Lo intentaré. Pero a mí el tema de mitos... desde un punto de vista de seguridad, me parece fascinante, me parece fascinante, me parece fascinante que podamos tener sistemas de seguridad que nos audicen, que nos ayuden a tener sistemas más seguros, pero también lógicamente me preocupa el ejemplo de la llave inglesa que tenía antes. Puedo tener una herramienta muy buena para defenderme, para protegerme, pero a modo también puedo utilizar esa herramienta para atacar.¿Dónde está?¿En quién la usa?
SPEAKER_07Y aquí, bueno, aquí lo han comentado por el chat, porque perdonad si no hemos hecho todo el caso que puede ser esto si queréis alguno más contestar también pero ya con lo que diga Manuel pero si queréis puede ser esta noticia o el avance de este tipo de modelos que genera como alerta o alarma por sus capacidades el fin del open source de la IA a un
SPEAKER_09nivel no
SPEAKER_07no creo¿los reguladores de Europa no dirán esto hay que pararlo?¿No des ideas? No doy
SPEAKER_09idea.
UNKNOWNYo creo que es imparable, muy difícil.
SPEAKER_09Hay gente que dice, no, siempre queda una VPN.
UNKNOWNNo.
SPEAKER_09Es más, yo espero que Europa se plantee, si lo han hecho los americanos, tenemos que hacer nosotros otra cosa
SPEAKER_07igual. Mira, aquí hay una cosa que, a ver, no me gusta ponerla, pero la voy a poner. No me gusta entrar en estas guerras, pero sí que es cierto. Me parece que es cierto. Dice Pablo Cota y Mitch, dice, basta con ver cuál es el canal número uno de nitricidad artificial en español y es vergonzoso. El lema, vender cualquier cosa para ganar dinero. Seguridad y gobernanza no se habla allí porque no es para masas y yo tengo que decir, a ver bueno, cada uno hace lo que puede y en su estilo, pero es verdad que un gran poder o audiencia conlleva una gran responsabilidad y nosotros en XHabay siempre lo hemos hecho desde la responsabilidad porque somos profesionales nos ganamos el pan de otra manera no participando aquí y es verdad que la gente que tiene esos canales joder, tiene una gran responsabilidad y esos temas no se tocan o de puntillas Y no quiero ahondar porque sabéis que, bueno, una historia, ya saben algunos, porque os pondría la mano a la cabeza de cómo piensan algunos número unos de algunos temas que tocamos. Aparte de seguirnos. Yo creo que es fundamental. Yo creo que es fundamental los programas que hacemos con enfoque transversal y dar la oportunidad de tener ese enfoque que es atípico, que puede gustar a unos y a otros no, pero yo creo que es necesario,¿no?
SPEAKER_06Yo creo que es que estoy muy de acuerdo y pienso en varias caras, no solo en una cara. Creo que la seguridad es un tema del que no hablan, pero es que ni a nivel de usuario, o sea, no hablan nada porque les disuadería de hacer cosas. O sea, si cierto youtuber muy famoso cuando se instaló locamente su Open Cloud hubiera hablado de cómo hacer el hardening de una red doméstica, no en tu empresa, que lo propone también, entonces la gente diría, pues paso y si la gente dice que pasa, no vende su curso y el tema es que al final no vende su curso, porque la gente pasa porque es muy complicado, porque lo es y en vez de animar a la gente a complicarse la vida y aprender cosas, animan a hacer las cosas a lo loco dejar puertos abiertos por doquier porque luego hay que vender un curso dos meses tarde
SPEAKER_07al final,¿sabes qué pasa? que cuando lo analizo, pues cada uno hace lo que quiere está en su derecho yo prefiero el camino que sigue Diego, porque es el que seguiría yo, porque es atrevido, porque yo, por ejemplo, cuando leí sus posts, me pareció alguien que llevaba tiempo y de un nivel alto, técnicamente lo que expone no es un nivel de cualquier persona, pero tenía su formación, había abordado un problema técnico complicado, con soluciones que le aplicaba, generaba debate, gente técnica le preguntaba, le decía, se exponía, porque tú dices, he hecho eso, estoy intentando hacer eso, y siempre salen los egos, para mí ese es el camino, no tener miedo a aprender, me da igual llevar el tiempo que lleve, ir con humildad, exponer lo que hago, debatirlo, exponerme a la crítica, pero también quiero decir lo que hago,¿no? Me mola salir y decir, hago esto, he conseguido esto, claro que sí. Y, bueno, luego puede ganar más dinero o vender su producto o su framework, lo que quieras, pero es otro camino. Para mí es otro camino. Ahora, cuando lo que ha dicho Manuel, todo ese tipo de, al final, yo expongo este tipo de temas porque al final quiero que me compren mi curso, pues al final yo creo que eso, no sé si tiene los días contados, pero no lo sé tampoco yo creo que no tenemos que centrarnos en la crítica y lo que tenemos que centrarnos en es en que escuchéis programas como estos y otras lecturas canales que proporcionan como esa visión transversal y crítica también es bueno leer a gente que no piensa como nosotros yo he leído por ejemplo el libro de Mustafa Suleiman me costó mucho leerlo porque no me gusta nada el personaje pero lo agradecí el de Imperio de la Haya lo mismo y también en otras áreas en definitiva estamos viviendo un momento histórico No estamos para gilipolleces, estamos para tomar conciencia y para crear realidad y oportunidad y no para vender cursos, que también hay que vender cursos, pero es que vende cursos hasta el panadero de abajo de agentes. Llega un momento que dices, tío, a mí me piden hacer cursos, es decir, no os imagináis la cantidad de gente, pero no es que me dé miedo hacer cursos y ganar dinero tras de ello, sino que soy incapaz de no aportar un valor diferencial si hago algo, si no hay,¿cuántos cursos hay de agentes, incluso grandes? gratuitos y...¿Te puedo contar una cosa?¿Lo has oído? Sí,
SPEAKER_09sí. No voy a decir la universidad. No voy a decir la universidad. Pero me invitaron para dar un curso a chavales que estaban estudiando desarrollo. Y les dije que me esperaría septiembre. Que no podía ir ahora.¿Por qué? Porque no sé qué va a ocurrir. Y si esos chavales que están estudiando, si tienen futuro o no tienen futuro.
SPEAKER_07Para Emanuel, si te escucha.
SPEAKER_09Y lo dije así de claro. Es complicado.¿Por qué? Porque es complicado.
SPEAKER_07Está siendo complejo para los niños. Pero también es apasionante. Yo creo que es un momento... Y además, fíjate una cosa, que a mí siempre es una cosa que me ha hecho daño a nivel personal. Yo soy una persona como... El problema generacional, el no comunicarnos con generaciones. Yo me he comunicado bien con gente de todo tipo, pero gente tan joven, incluso niños. Yo creo que el problema de la IA a los humanos nos va a unir mucho ante la dificultad. No sé cómo decirte... tema generacional a nivel de comunicación, de objetivos, de retos como sociedad hay que unirnos si no nos somos capaces de unirnos va a ser muy complicado lo que nos espere lo vamos a ver gente joven gente joven que no tiene oportunidades gente mayor que no se puede reciclar funcionarios que decían por aquí que hacemos con los funcionarios que hacemos con esta nueva tecnología en cuanto a la concentración de todo esto, mensajes no negativos, como realistas, decadencia de la humanidad, pero claro, tendremos episodios de salud mental y suicidios en cuanto que la gente puede no encajar toda esta realidad, porque desplaza al humano, no hay una contranerrativa positiva, es casi todo alarmismo, claro, es normal que triunfe el ludita, entonces hay que cambiar el chip, pero es un reto muy importante que Europa y España lo tienen muy crudo, pero yo creo que también hay una gran oportunidad y es un momento genial para vivir, bueno yo si fuera vamos, 18, 20 años ahí programando con cualquier ordenador a lo que puedes hacer a día de hoy es una auténtica locura, el mundo a tus pies no lo sé, no sé qué viviremos, si lo que viviremos es encerrarnos en un universo 25 controlado, sometido bajo un software o una superinteligencia, o aprovecharemos eso como humanos para en todos los ámbitos generar una nueva ilustración, renacimiento o lo que sea, no lo sé, o es algo intermedio no lo sé, pero creo que el cambio de paradigma es tan importante a mí me empieza, no a asustar de miedo, sino hostia, es como decir lo que viene no es pecata
SPEAKER_09minuta yo que soy muy tracker y diciendo mucho ese tipo de utopía yo prefiero pensar que vamos hacia ese camino más que un camino destructor vamos a un camino donde la IA la tecnología y el ser humano se compaginan perfectamente
SPEAKER_07y hay mucha gente joven lo hablamos con Diego que bueno hay mucha gente joven también que está desconectada de todo esto pero hay mucha gente con ganas de aprender y que la inteligencia artificial les molesta motiva porque saben que es transformadora,¿no? Y yo creo que en ese sentido mucha gente joven, esa energía joven y no tan joven, Manuel, yo, Beatriz, pero en general la sociedad yo creo que va a apostar mucho por eso,¿no? Porque si no,¿qué nos queda? La recta básica. Bueno, la recta básica. Bueno, amigos, Manuel, Diego, un placer, Beatriz, gracias por su última oración. Muchas gracias
SPEAKER_08por la invitación para mí. Buenas noches.
SPEAKER_10Disconnecting your body. Disconnecting your mind. Closing connection with your soul. Simulation is finished. I hope you enjoy the podcast of Xhub AI. Support us in Patreon and PayPal. Join community in Discord. Follow us in social networks. Working in the next episode. See you soon.
UNKNOWNBye. Closing session.