Diferencia entre revisiones de «Curaduria1 - WikiFSF»

De FSF
Sin resumen de edición
Sin resumen de edición
Línea 127: Línea 127:
:* [https://i.postimg.cc/VkxmFJQn/Curaduria-Concept-Illustration-Wiki-FSF.png Archivo de respaldo (versión ligera)]
:* [https://i.postimg.cc/VkxmFJQn/Curaduria-Concept-Illustration-Wiki-FSF.png Archivo de respaldo (versión ligera)]
:* [https://i.postimg.cc/3NRshhQm/ccc8e746-b8e2-4bad-a91c-90d9e22bef96.png Archivo de respaldo (versión completa)]
:* [https://i.postimg.cc/3NRshhQm/ccc8e746-b8e2-4bad-a91c-90d9e22bef96.png Archivo de respaldo (versión completa)]
----
== TRANSCRIPT LIMPIO de Youtube ==
<small>
Monica
Limpieza del Transcript
Introducción
Mucho de lo que está sucediendo hoy en la industria de la inteligencia artificial es extremadamente inhumano. Pero esto es solo yo jugando al abogado del diablo. Lógicamente, podría ser el caso que la civilización que acelere su investigación con IA será la civilización superior.
Predicciones y Beneficios
No, no es así. Esta es una predicción que estás haciendo, ¿verdad? La que está haciendo Zuckerberg. Y, ¿sabes cuál es la característica común de todos ellos? Se benefician enormemente de este mito. Tengo todos estos documentos internos que muestran que están tratando intencionalmente de crear esa sensación dentro del público para poder extraer y explotar. Entonces, ¿qué hacemos al respecto? Necesitamos desmantelar los imperios de la IA.
He estado cubriendo la industria tecnológica durante más de 8 años, he entrevistado a más de 250 personas, incluidos ex-empleados y ejecutivos actuales de OpenAI. Puedo decirte que hay muchos paralelismos entre los imperios de la IA y los imperios del pasado. Por ejemplo, reclaman la propiedad intelectual de artistas, escritores y creadores en la búsqueda de entrenar estos modelos.
Además, explotan una cantidad extraordinaria de mano de obra, lo que rompe la escalera profesional, porque alguien es despedido y luego trabaja para entrenar los modelos en el mismo trabajo del que fue despedido, lo que perpetuará más despidos si ese modelo desarrolla esa habilidad. Y cuando hablan de que se van a crear nuevos trabajos que ni siquiera podemos imaginar, muchos de los trabajos que se crean son mucho peores que los que estaban allí. Luego está la crisis ambiental y de salud pública que estas empresas han creado y cómo también pueden gastar cientos de millones para intentar eliminar cualquier posible legislación que se interponga en su camino y censurar a los investigadores que son inconvenientes para la agenda del imperio.
Lo que estoy diciendo no es que estas tecnologías no tengan utilidad. Es que la producción de estas tecnologías en este momento está causando mucho daño a las personas. Pero tenemos investigaciones que muestran que las mismas capacidades podrían desarrollarse de una manera diferente que no tenga todas estas consecuencias no deseadas. Así que hablemos de todo eso.
Suscripción y Apoyo
Esto es muy interesante para mí. Mi equipo me dio este informe para mostrarme cuántos de ustedes que ven este programa están suscritos. Algunos de ustedes nos han dicho que se han desuscrito del canal de forma aleatoria. Así que tengo un favor que pedirles a todos. Por favor, ¿podrían verificar ahora si han presionado el botón de suscripción si son espectadores regulares del programa y les gusta lo que hacemos aquí? Estamos acercándonos a un hito significativo en este programa en términos de número de suscriptores. Así que si hay una cosa simple y gratuita que pueden hacer para ayudarnos, a mi equipo y a todos aquí a mantener este programa gratuito y a seguir mejorando año tras año y semana tras semana, es simplemente presionar ese botón de suscripción y verificar si lo han hecho.
Lo único que les pediré, ¿tenemos un acuerdo? Si lo hacen, les diré lo que haré. Me aseguraré de que cada semana, cada mes, luchemos más y más para traerles a los invitados y las conversaciones que quieren escuchar. He mantenido esa promesa desde el principio y no los decepcionaré. Por favor, ayúdenos. Lo aprecio mucho. Sigamos con el programa.
Capítulo 2: Por qué Algunos Insiders Dicen que la IA Está Impulsada Más por el Beneficio que por el Progreso
Karen, has escrito este libro titulado "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI". Supongo que mi primera pregunta es: ¿cuál fue la investigación y el viaje que realizaste para escribir este libro del que vamos a hablar y los temas dentro de él?
Tomé una ruta extraña hacia el periodismo. Estudié ingeniería mecánica en el MIT y, cuando me gradué, me mudé a San Francisco, me uní a una startup tecnológica y me convertí en parte de Silicon Valley. Básicamente, recibí una educación sobre lo que es Silicon Valley porque, unos meses después de unirme a una startup muy orientada a la misión que se enfocaba en construir tecnologías que ayudarían a facilitar la lucha contra el cambio climático, la junta despidió al CEO porque la empresa no era rentable. Y este fue, en retrospectiva, un momento muy crucial para mí porque pensé: "Si este centro está orientado a construir tecnologías rentables y muchos de los problemas del mundo que creo que necesitan resolverse no son problemas rentables, entonces, ¿qué estamos haciendo aquí?".
Tuve un poco de crisis en ese momento, pensé: "Bueno, acabo de pasar 4 años preparándome para esta carrera que ahora no creo que sea adecuada para mí". Así que pensé: "Bueno, podría intentar algo totalmente diferente". Siempre me ha gustado escribir y así fue como, después de 2 años, llegué a un puesto en MIT Technology Review cubriendo IA a tiempo completo, lo que me dio un espacio para explorar todas estas preguntas sobre quién decide qué tecnologías construimos, cómo el dinero y la ideología también impulsan la producción de esas tecnologías, y cómo asegurarnos de que realmente reimaginamos el ecosistema de innovación para que funcione para una amplia base de personas en todo el mundo. Así fue como comencé este viaje que finalmente me llevó a escribir un libro. No me di cuenta de que estaba trabajando hacia la escritura de un libro, pero a partir de 2018, cuando tomé ese trabajo, fue esencialmente el momento en el que comencé a investigar la historia que documenté en él.
Capítulo 3: Lo que 250 Insiders de OpenAI Revelaron Detrás de Puertas Cerradas
Fue un momento muy oportuno para comenzar a trabajar en inteligencia artificial. Para cualquiera que no lo sepa, esto fue antes del lanzamiento de OpenAI ChatGPT, un momento que sacudió al mundo. Pero al escribir este libro, entrevistaste a muchas personas y fuiste a muchos lugares. ¿Puedes darme una idea de cuántas personas has entrevistado, a dónde te ha llevado alrededor del mundo, etc.?
Entrevisté a más de 250 personas, así que más de 300 entrevistas, más de 90 de esas personas eran ex-empleados o empleados actuales de OpenAI y ejecutivos. Así que el libro cubre la historia interna de la primera década de OpenAI y cómo llegó a donde está hoy. Pero no quería escribir un libro corporativo. Sentía muy firmemente que, para ayudar a las personas a entender el impacto de la industria de la IA, también tendríamos que viajar mucho más allá de Silicon Valley. Estas empresas nos dicen que la IA va a beneficiar a todos y esa es su misión. Pero realmente comienzas a ver que esa retórica se desmorona cuando vas a los lugares que no se parecen en nada a Silicon Valley, que no hablan nada como Silicon Valley y que tienen una historia y cultura que son fundamentalmente diferentes también. Y ahí es donde comienzas a entender realmente la verdadera realidad de cómo esta industria se está desarrollando a nuestro alrededor.
Karen, a menudo trato de dirigir las conversaciones, pero en esta situación, siento que probablemente es mi responsabilidad seguir. Así que, con eso en mente, te preguntaré: ¿dónde comienza este viaje y dónde deberíamos comenzar si hablamos de los temas del imperio de la IA, de la IA en general?
Creo que deberíamos comenzar con cuándo comenzó la IA como campo. Esto fue en 1956, y había un grupo de científicos que se reunieron en la Universidad de Dartmouth para comenzar una nueva disciplina, una disciplina científica para intentar perseguir una ambición. Y específicamente, un profesor asistente en la Universidad de Dartmouth, John McCarthy, decidió nombrar a esta disciplina inteligencia artificial. Este no fue el primer nombre que intentó. El año anterior intentó nombrarla "Estudios de Autómatas". Y la razón por la que algunos de sus colegas estaban preocupados por este nombre era porque vinculaba la idea de esta disciplina a recrear la inteligencia humana. Y en aquel entonces, como es cierto hoy, no tenemos un consenso científico sobre lo que es la inteligencia humana. No hay una definición desde la psicología, biología o neurología. De hecho, cada intento en la historia de cuantificar y clasificar la inteligencia humana ha sido impulsado por motivos nefastos. Ha sido impulsado por el deseo de probar científicamente que ciertos grupos de personas son inferiores a otros grupos de personas.
No hay metas para este campo y no hay metas para la industria cuando dicen que están tratando de recrear sistemas de IA que sean tan inteligentes como los humanos. ¿Cómo definimos eso? ¿Y cuándo llegaremos allí si no sabemos cómo definir el destino? Y lo que eso significa efectivamente es que estas empresas pueden usar el término "inteligencia general artificial" que ahora es el término para referirse a este objetivo ambicioso de recrear la inteligencia humana. Pueden usarlo como quieran y pueden definirlo y redefinirlo según lo que les convenga. Así que, en la historia de OpenAI, ha definido y redefinido muchas veces. Cuando Sam Altman habla con el Congreso, AGI es un sistema que va a curar el cáncer, resolver el cambio climático, curar la pobreza. Cuando habla con los consumidores a los que intenta vender sus productos, es el asistente digital más increíble que jamás tendrás. Cuando hablaba con Microsoft, en el acuerdo que OpenAI y Microsoft hicieron donde Microsoft invirtió en la empresa, se definió como un sistema que generará cientos de miles de millones de ingresos. Y en el propio sitio web de OpenAI, lo definen como sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos. Esto no es una visión coherente de una sola tecnología. Estas son definiciones muy diferentes que se expresan en voz alta al público que necesita ser movilizado para evitar la regulación o para obtener más aceptación del consumidor en la búsqueda de la industria o para obtener más capital y recursos para continuar con este viaje con definiciones ambiguas.
Hablando de diferentes definiciones a lo largo del tiempo, en 2015, en un blog que Sam Altman escribió antes de que OpenAI se anunciara oficialmente, delineó explícitamente el riesgo existencial al decir: "El desarrollo de inteligencia de máquina superhumana es probablemente la mayor amenaza para la existencia continua de la humanidad. Hay otras amenazas que creo que son más seguras de suceder, por ejemplo, un virus diseñado, pero la IA es probablemente la forma más probable de destruir todo en general". Cuando Altman escribe para el público o habla para el público, no solo tiene al público como audiencia en mente, hay otras personas a las que está tratando de motivar o movilizar cuando dice estas cosas. Y en ese momento particular, Altman estaba tratando de convencer a Elon Musk para que se uniera a él en la co-fundación de OpenAI. Y Musk, en particular, estaba dedicando todo su tiempo a sonar la alarma sobre lo que veía como una gran amenaza existencial que la IA podría representar. Así que en ese blog, si miras el lenguaje que Altman usa lado a lado con el lenguaje que Musk estaba usando en ese momento, se refleja en todas las cosas que Musk estaba diciendo.
Capítulo 4: ¿Realmente Sam Altman Superó a Elon Musk?
Identical. Hace 10 años, Musk estaba yendo a podcasts, diciendo, tuiteando, lo que sea, que el mayor riesgo existencial para la humanidad era la IA. Sí. Y así, sabes, como su paréntesis, hay otras cosas que podrían suceder que podrían ser más probables, como virus diseñados. Es porque hasta entonces Altman había estado hablando solo sobre virus diseñados. Y ahora que necesita pivotar para hablar a una audiencia de uno, a Musk, necesita resolver la contradicción entre lo que ahora está elevando como su nuevo miedo central y lo que había estado diciendo anteriormente.
¿Estás diciendo que Sam Altman manipuló a Musk porque Elon terminó donando una gran cantidad de dinero a OpenAI y co-fundando la empresa, creo, con Sam Altman?
Elon Musk terminó co-fundando la empresa con Altman. Y ciertamente desde la perspectiva de Musk, siente que fue manipulado porque siente que Altman estaba ingeniosamente usando su lenguaje de una manera que haría que Musk confiara en él como un socio en este esfuerzo. Y, por supuesto, Musk se va. A través de algunos de los documentos que salieron durante la demanda en la que Musk y Altman están involucrados ahora, ha quedado claro que hubo un grado en el que Musk fue realmente excluido de la toma de decisiones.
Así que por eso se queda con esta intensa vendetta personal contra Altman, diciendo que de alguna manera Altman lo engañó para que fuera parte de esto. Así que en 2015, Sam Altman está escribiendo estos blogs diciendo que esta es, sabes, una de las mayores amenazas existenciales. Al mismo tiempo, en 2015, Musk está dando algunos discursos muy famosos en ese momento en el MIT. Dijo que la IA era la mayor amenaza existencial y comparó el desarrollo de la IA con invocar al demonio.
Y lo que estás diciendo aquí es que Sam Altman estaba simplemente reflejando el lenguaje que Elon estaba usando para involucrar a Elon en OpenAI. Y luego parece que, y nuevamente, hay un caso legal en curso ahora que Sam podría haber manipulado a Elon de alguna manera.
Sí. Así que sabemos por la demanda y los documentos que han salido en la demanda que Ilia Sutskever, quien era el científico jefe de OpenAI en ese momento, y Greg Brockman, el director de tecnología en ese momento, cuando estaban decidiendo si mantener OpenAI como una organización sin fines de lucro, porque originalmente se fundó como una organización sin fines de lucro, decidieron que necesitaban crear una entidad con fines de lucro, pero la pregunta era quién debería ser el CEO de esta entidad con fines de lucro. ¿Debería ser Musk o debería ser Altman? Porque eran los dos co-presidentes de la organización sin fines de lucro. Y en los correos electrónicos, quedó claro que Ilia y Greg primero eligieron a Musk para ser el CEO. Pero a través de mi investigación, descubrí que Altman luego apeló personalmente a Greg Brockman, quien era amigo suyo, que se conocían desde hace muchos años en la escena de Silicon Valley, y dijo: "¿No crees que sería un poco peligroso tener a Musk como CEO de esta empresa, de esta nueva entidad con fines de lucro, porque, sabes, es un tipo famoso, tiene muchas presiones en el mundo, podría ser amenazado, podría actuar de manera errática, podría ser impredecible. ¿Realmente queremos que una tecnología que podría ser superpoderosa en el futuro termine en manos de este hombre?". Y eso convenció a Greg, y Greg luego convenció a Ilia, sabes, creo que hay un punto aquí. ¿Realmente queremos darle tanto poder a Musk? Y es por eso que Musk luego se va, porque luego los dos cambian su lealtad. Dicen: "En realidad, queremos que Altman sea el CEO". Y luego Musk dice: "Si no soy el CEO, me voy".
Capítulo 5: Lo que la Gente Se Equivoca Acerca de Sam Altman
Parece que Sam nuevamente logró persuadir a alguien para que hiciera algo. Mhm. Supongo que esto plantea la pregunta, ¿qué piensas de Sam Altman? Creo que es una figura muy controvertida. Hiciste una pausa interesante. Es una pausa donde alguien intenta seleccionar sus palabras. Bueno, esto es lo que es tan interesante sobre esas entrevistas, es que las personas están extremadamente polarizadas sobre Altman. Nadie tiene sentimientos intermedios sobre él. O piensan que es el mejor líder tecnológico de esta generación, similar a Steve Jobs de la era moderna, o piensan que es realmente manipulador, un abusador y un mentiroso. Y lo que me di cuenta, porque entrevisté a tantas personas, es que realmente se reduce a cuál es la visión de esa persona sobre el futuro y cuáles son sus objetivos. Así que si te alineas con la visión de Altman sobre el futuro, vas a pensar que es el mayor activo que puedes tener a tu lado porque este hombre es realmente persuasivo. Es increíble contando historias, es increíble movilizando capital, reclutando talento, obteniendo todos los insumos que necesitas para hacer que ese futuro suceda. Pero si no estás de acuerdo con su visión del futuro, entonces comienzas a sentir que estás siendo manipulado por él para apoyar su visión incluso si no estás de acuerdo con ella. Y esta es la historia especialmente de Dario Amodei, CEO de Anthropic, quien originalmente fue un ejecutivo en OpenAI. Así que para quienes no lo sepan, Dario ahora dirige Anthropic, que es el creador de Claude. Muchas personas probablemente están más familiarizadas con Claude. Sí. Y es uno de los mayores competidores de OpenAI. Y Amodei, en el momento en que era un exejecutivo de OpenAI, pensó que Altman estaba en la misma página que él y luego, con el tiempo, comenzó a sentir que Altman estaba, de hecho, en la página opuesta a él y sintió que Altman había usado la inteligencia, las capacidades y habilidades de Amodei para construir cosas y llevar a cabo una visión del futuro con la que en realidad no estaba de acuerdo. Y es por eso que las personas terminan con este mal sabor en la boca.
He estado cubriendo la industria tecnológica durante más de ocho años y he cubierto muchas empresas. He cubierto Meta, Google, Microsoft, además de OpenAI. Y OpenAI y Altman son la única figura con la que he visto este grado de polarización donde las personas no pueden decidir si es el mejor o el peor.
Capítulo 6: La Lucha por el Poder: ¿Quién Intentó Despedir a Sam Altman y Por Qué?
Mencionaste a Dario y me parece realmente interesante observar cómo las citas de las personas evolucionan con el tiempo según sus incentivos. Así que estuve mirando todas las cosas que han dicho públicamente en sus podcasts, en sus publicaciones de blogs para ver cómo ha evolucionado con el tiempo. Y Dario, quien fue el ex VP de investigación de OpenAI y ahora se ha mudado a Anthropic, que está tomando un enfoque ligeramente diferente para desarrollar IA, dijo en 2017, mientras aún estaba en OpenAI, que esta es una cita: "Creo que en el extremo, es el estilo de miedo de Nick Bostrom que una AGI podría destruir a la humanidad. No puedo ver ninguna razón en principio por la cual eso no podría suceder. Mi posibilidad de que algo salga realmente mal a gran escala de la civilización humana podría estar entre el 10% y el 25%".
Y también mencionaste a Ilia, quien fue cofundador de OpenAI y luego se fue. Supongo que la primera pregunta que haría es: ¿por qué se fue?
Es una gran pregunta. Así que él fue fundamental en tratar de despedir a Sam Altman y es otra de las personas que, con el tiempo, comenzó a sentir que estaba siendo manipulado por Altman hacia contribuir en algo en lo que no creía. Y porque entrevisté a muchas personas, Ilia en particular tenía dos pilares que le importaban profundamente. Uno es asegurarse de que lleguemos a la llamada AGI y el otro es asegurarse de que lleguemos a ella de manera segura. Y sintió que Altman estaba socavando ambas cosas. Sintió que Altman estaba creando un ambiente muy caótico dentro de la empresa, donde estaba enfrentando a los equipos entre sí, donde estaba diciendo cosas diferentes a diferentes personas.
¿Alguna vez has hablado con él?
Lo he hecho. Así que lo entrevisté en 2019 para un perfil que hice de OpenAI para MIT Technology Review. Y en 2019, tiene una cita donde dice: "El futuro va a ser bueno para las IA independientemente. Sería bueno si también fuera bueno para los humanos. No es que vaya a odiar a los humanos o quiera hacerles daño, pero simplemente va a ser tan poderoso. Y creo que una buena analogía sería la forma en que los humanos tratan a los animales. No es que odiemos a los animales. Creo que los humanos aman a los animales y tengo mucho afecto por ellos. Pero cuando llega el momento de construir una carretera entre dos ciudades, no estamos pidiendo permiso a los animales. Simplemente lo hacemos porque es importante para nosotros. Y creo que, por defecto, esa es la relación que va a haber entre nosotros y la IA, que son realmente autónomas y operan en su propio nombre".
Y eso fue en 2019, el año en que lo entrevistaste. Una de las cosas que siento que deberíamos retroceder para examinar es volver a esta idea de qué es realmente la inteligencia artificial y qué queremos decir con inteligencia. Y una gran parte de las opiniones de las diferentes personas y las citas que estás leyendo deriva de una creencia específica que cada uno tiene en esta pregunta de qué es la inteligencia, qué constituye la inteligencia.
Para Ilia, a lo largo de su carrera de investigación, ha sentido que, en última instancia, nuestros cerebros son modelos estadísticos gigantes. Esto no es algo que realmente sepamos, pero esta es su propia hipótesis, también la hipótesis de su mentor, Jeffrey Hinton, quien también estuvo en este podcast. Esta es la razón por la que tienen una fuerte convicción en la idea de construir sistemas de IA que son modelos estadísticos y que este enfoque particular conducirá a sistemas inteligentes como nosotros somos inteligentes. Es una hipótesis que tienen. No es algo que haya sido probado por la ciencia. Y algunas personas están en desacuerdo vehementemente con ellos sobre esta cosa particular. Pero si te pones en sus zapatos y asumes que su hipótesis es verdadera, que nuestros cerebros son en realidad motores estadísticos y que estos sistemas que están construyendo también son motores estadísticos, que están haciendo más grandes y más grandes hasta que se vuelvan del tamaño del cerebro humano. Por eso dicen que hacer esta comparación donde el sistema se volverá igual a la inteligencia humana y luego tal vez exceda la inteligencia humana es relevante en su marco.
Ilia dio una charla en un momento en esta conferencia de investigación de IA muy prominente que sucede cada año llamada "sistemas de procesamiento de información neuronal". Es un trabalenguas, pero dio esta conferencia donde mostró este gráfico del tamaño de los cerebros y la inteligencia de una especie. Y es aproximadamente lineal. Cuanto más grande es el tamaño del cerebro, más inteligente es la especie. Y así, para él, piensa que está construyendo un cerebro digital porque cree que los cerebros son solo motores estadísticos. Así que, desde esa lógica, es como: "Está bien, si construimos un motor estadístico más grande que el cerebro humano, entonces, según este gráfico, será más inteligente y luego estaremos sujetos al mismo trato que hemos sometido a los animales". Pero es muy importante entender que estas son hipótesis científicas de individuos específicos dentro de la comunidad de investigación de IA y hay mucho debate sobre si este es realmente el caso. Algunos de los críticos más grandes dicen que es muy reductivo pensar en nuestros cerebros como simplemente motores estadísticos.
Capítulo 7: La Verdadera Razón por la que los Gigantes Tecnológicos Están Compitiendo por Construir IA
Así que, ¿por qué lo están haciendo? Quiero decir, has entrevistado a todas estas personas. Creo que son, ¿300 personas en total, 80 o 90 de ellas de OpenAI, el creador de ChatGPT? ¿Por qué crees que lo están haciendo?
Creo que están impulsados por una agenda imperial. Y es por eso que llamo a estas empresas imperios de IA. ¿Qué quieres decir con una agenda imperial? ¿Qué significa ese término?
Imperio es la única metáfora que he encontrado que encapsula completamente todas las dimensiones de lo que hacen estas empresas y la escala en la que operan y lo que los motiva a hacer lo que hacen. Hay muchos paralelismos que ves entre lo que llamo los imperios de la IA y los imperios del pasado. Reclaman recursos que no son suyos en la búsqueda de entrenar estos modelos. Esa es la data de individuos, la propiedad intelectual de artistas, escritores y creadores. Están apropiándose de tierras para construir estas instalaciones de supercomputación para entrenar los próximos modelos de generación. En segundo lugar, explotan una cantidad extraordinaria de mano de obra. Contratan a cientos de miles de trabajadores en todo el mundo, incluidos en los EE. UU., para, en última instancia, hacer estas tecnologías. Podemos hablar más sobre eso. Y también diseñan sus herramientas para automatizar el trabajo, de modo que cuando se despliegan las tecnologías, también afecta los derechos laborales porque erosiona los derechos laborales. Y esta es una elección política que han tomado.
En tercer lugar, monopolizan la producción de conocimiento. Y así proyectan esta idea de que son los únicos que realmente entienden cómo funciona la tecnología. Y así, si al público no le gusta, es porque no saben lo suficiente sobre esta tecnología. Hacen esto al público. Hacen esto a los responsables de políticas. Y también han capturado a la mayoría de los científicos que están trabajando en comprender las limitaciones y capacidades de la IA.
¿Crees que están manipulando al público de alguna manera?
Lo están haciendo, sí. Así que si la mayoría de los científicos climáticos en el mundo fueran financiados por empresas de combustibles fósiles, ¿crees que obtendríamos una imagen precisa de la crisis climática? No. Y de la misma manera, la industria de la IA emplea y financia a la mayoría de los investigadores de IA en el mundo. Así que establecen la agenda de la investigación en IA de maneras sutiles, simplemente canalizando dinero hacia sus prioridades para que solo se produzcan ciertos tipos de investigaciones sobre IA. Pero también censurarán a los investigadores cuando no les guste lo que el investigador ha encontrado. Y así hablo sobre el caso de la Dra. Timnit Gebru en mi libro, quien fue la co-líder del equipo de IA ética en Google, cuando fue contratada para criticar los tipos de sistemas de IA que Google estaba construyendo. Luego co-escribió un artículo de investigación crítico que mostraba cómo los modelos de lenguaje grandes estaban llevando a ciertos tipos de resultados dañinos. Y en un intento de tratar de detener esta investigación de ser publicada, Google terminó despidiendo a Gebru y luego despidió a su otro co-líder, Margaret Mitchell.
Y así controlan y aplastan la investigación que es inconveniente para la agenda del imperio.
Conclusión
Este es un resumen del transcript limpiado. Se han corregido errores ortográficos y de formato, manteniendo el contenido y el significado original. Si necesitas más ajustes o un formato diferente, házmelo saber.
</small>
----
----
----
[[CATEGORY:PLANTILLAS]]
[[CATEGORY:PLANTILLAS]]

Revisión del 09:28 29 mar 2026

🧠 Curaduría1 - WikiFSF

  • Curaduria1 - WikiFSF – Modelo detallado de curaduría para la creación de artículos en WikiFSF mediante el estándar Curaduría1.

🧭 Uso como plantilla base

  • Este documento funciona como modelo estructural oficial para la creación de nuevas curadurías tipo 1 en WikiFSF.
  • Su propósito es:
  • Servir como guía clara y replicable.
  • Mantener coherencia entre artículos.
  • Evitar improvisación en la estructura.
  • Garantizar calidad en la presentación del conocimiento.
Toda nueva curaduría debe tomar este documento como referencia base, adaptando únicamente el contenido, no la estructura.
  • Este modelo puede ser invocado como Curaduría1 o Curado1 para aplicar este estándar completo en la creación de artículos.
Yo voy a entender automáticamente:
  • ✔ estructura completa
  • ✔ estilo WikiFSF
  • ✔ jerarquía visual
  • ✔ resumen consciente
  • ✔ tribu
  • ✔ reflexión
  • ✔ práctica
  • ✔ enfoque
  • ✔ fuente
  • ✔ todo el proceso

🌟 Propósito del documento

Este documento existe para preservar, recordar y replicar con total claridad el proceso de curaduría consciente desarrollado en WikiFSF.

  • No es una guía simple.
  • No es un resumen.
  • Es una estructura viva de trabajo que permite transformar cualquier contenido (PDF, video, texto, experiencia) en un artículo de alto valor dentro de WikiFSF.
  • El objetivo es eliminar la improvisación y convertir la curaduría en un sistema consciente, claro, repetible y evolutivo.

🧠 Principio fundamental

  • No estamos copiando contenido… estamos transformándolo en conciencia
  • La fuente se respeta.
  • El mensaje se eleva.
  • El lector se beneficia.
Curar no es modificar… es revelar la esencia y hacerla accesible.

🔥 Estructura obligatoria de todo artículo

Todo contenido curado en WikiFSF debe seguir esta secuencia exacta:
  • 1. __toc__
  • 2. {{cen1|Título consciente}}
  • 3. Fuente visible (si aplica: video, enlace, etc.)
  • 4. Resumen consciente (FSF / RyE)
  • 5. Comentarios de la Tribu
  • 6. Reflexión guiada
  • 7. Práctica sugerida (si aplica)
  • 8. Enfoque de conciencia
  • 9. Fuente y promotoría
  • 10. Categorías
Este orden NO es opcional. Es la base del sistema.

🌿 Título consciente

  • El título nunca debe generar miedo, culpa o rechazo.
  • Debe transformar el enfoque original en uno de conciencia, evolución y comprensión.
  • Debe invitar, no imponer.
Ejemplo:
  • “Terapia de la lujuria, gula y pereza” ❌
  • “Transformar los Impulsos en Fuerza Interior” ✅
El título es la puerta. Si falla, todo falla.

🧠 Resumen consciente (FSF / RyE)

  • Debe iniciar con una frase fuerte en negrita.
  • Debe reinterpretar el contenido sin traicionar la fuente.
  • Debe convertir miedo → comprensión.
Estructura:
  • Idea general
  • Lista con:
  • Principios clave
  • Transformación del enfoque
Cierre obligatorio:
Este enfoque transforma el mensaje: ...
  • frase transformadora final

Palabra: Curaduría

La curaduría es el proceso consciente de seleccionar, organizar, interpretar y presentar contenidos con el propósito de darles sentido, coherencia y valor dentro de un contexto específico.

No se limita a reunir información, sino que implica una transformación activa del contenido para hacerlo comprensible, útil y significativo para otros.

🧠 Definición ampliada

  • La curaduría es una labor intelectual y estratégica que permite:
  • Filtrar información relevante entre grandes volúmenes de contenido.
  • Establecer criterios de selección basados en propósito y calidad.
  • Organizar los elementos de forma clara y estructurada.
  • Interpretar el contenido, aportando dirección y significado.
  • Presentar el resultado de manera accesible para una audiencia.
Curar no es acumular… es dar forma al conocimiento.

🔍 Origen del término

  • El concepto de curaduría surge en distintos campos:
  • Museología → gestión y presentación de colecciones.
  • Bibliotecología → organización del conocimiento.
  • Educación → estructuración del aprendizaje.
  • Entornos digitales → selección y adaptación de información.
Con el tiempo, el término evolucionó hacia un uso más amplio vinculado a la gestión consciente del conocimiento.

🌐 Curaduría en el entorno digital

  • En la actualidad, la curaduría implica:
  • Seleccionar información relevante.
  • Validar la calidad de las fuentes.
  • Reorganizar el contenido.
  • Adaptarlo para facilitar su comprensión.
  • Integrar múltiples perspectivas.
Es una respuesta a la sobrecarga de información del mundo moderno.

⚖️ Diferencias clave

  • Copiar → reproducir contenido sin cambios.
  • Compilar → reunir información sin interpretación.
  • Curar → seleccionar, interpretar y dar sentido.
La curaduría añade valor; no solo transfiere información.

🌿 Enfoque consciente (FSF / RyE)

  • Desde una visión consciente:
  • La curaduría transforma información en sabiduría accesible.
  • Respeta la fuente, pero mejora la comprensión.
  • Ordena el conocimiento para servir al crecimiento del ser.
Curar es un acto de claridad, intención y servicio.

🧭 Síntesis esencial

  • Elegir con intención, organizar con claridad y presentar con sentido para transformar información en comprensión.


Archivo:Curaduria Concept Illustration WikiFSF.png


TRANSCRIPT LIMPIO de Youtube

Monica Limpieza del Transcript Introducción Mucho de lo que está sucediendo hoy en la industria de la inteligencia artificial es extremadamente inhumano. Pero esto es solo yo jugando al abogado del diablo. Lógicamente, podría ser el caso que la civilización que acelere su investigación con IA será la civilización superior.

Predicciones y Beneficios No, no es así. Esta es una predicción que estás haciendo, ¿verdad? La que está haciendo Zuckerberg. Y, ¿sabes cuál es la característica común de todos ellos? Se benefician enormemente de este mito. Tengo todos estos documentos internos que muestran que están tratando intencionalmente de crear esa sensación dentro del público para poder extraer y explotar. Entonces, ¿qué hacemos al respecto? Necesitamos desmantelar los imperios de la IA.

He estado cubriendo la industria tecnológica durante más de 8 años, he entrevistado a más de 250 personas, incluidos ex-empleados y ejecutivos actuales de OpenAI. Puedo decirte que hay muchos paralelismos entre los imperios de la IA y los imperios del pasado. Por ejemplo, reclaman la propiedad intelectual de artistas, escritores y creadores en la búsqueda de entrenar estos modelos.

Además, explotan una cantidad extraordinaria de mano de obra, lo que rompe la escalera profesional, porque alguien es despedido y luego trabaja para entrenar los modelos en el mismo trabajo del que fue despedido, lo que perpetuará más despidos si ese modelo desarrolla esa habilidad. Y cuando hablan de que se van a crear nuevos trabajos que ni siquiera podemos imaginar, muchos de los trabajos que se crean son mucho peores que los que estaban allí. Luego está la crisis ambiental y de salud pública que estas empresas han creado y cómo también pueden gastar cientos de millones para intentar eliminar cualquier posible legislación que se interponga en su camino y censurar a los investigadores que son inconvenientes para la agenda del imperio.

Lo que estoy diciendo no es que estas tecnologías no tengan utilidad. Es que la producción de estas tecnologías en este momento está causando mucho daño a las personas. Pero tenemos investigaciones que muestran que las mismas capacidades podrían desarrollarse de una manera diferente que no tenga todas estas consecuencias no deseadas. Así que hablemos de todo eso.

Suscripción y Apoyo Esto es muy interesante para mí. Mi equipo me dio este informe para mostrarme cuántos de ustedes que ven este programa están suscritos. Algunos de ustedes nos han dicho que se han desuscrito del canal de forma aleatoria. Así que tengo un favor que pedirles a todos. Por favor, ¿podrían verificar ahora si han presionado el botón de suscripción si son espectadores regulares del programa y les gusta lo que hacemos aquí? Estamos acercándonos a un hito significativo en este programa en términos de número de suscriptores. Así que si hay una cosa simple y gratuita que pueden hacer para ayudarnos, a mi equipo y a todos aquí a mantener este programa gratuito y a seguir mejorando año tras año y semana tras semana, es simplemente presionar ese botón de suscripción y verificar si lo han hecho.

Lo único que les pediré, ¿tenemos un acuerdo? Si lo hacen, les diré lo que haré. Me aseguraré de que cada semana, cada mes, luchemos más y más para traerles a los invitados y las conversaciones que quieren escuchar. He mantenido esa promesa desde el principio y no los decepcionaré. Por favor, ayúdenos. Lo aprecio mucho. Sigamos con el programa.

Capítulo 2: Por qué Algunos Insiders Dicen que la IA Está Impulsada Más por el Beneficio que por el Progreso Karen, has escrito este libro titulado "Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI". Supongo que mi primera pregunta es: ¿cuál fue la investigación y el viaje que realizaste para escribir este libro del que vamos a hablar y los temas dentro de él?

Tomé una ruta extraña hacia el periodismo. Estudié ingeniería mecánica en el MIT y, cuando me gradué, me mudé a San Francisco, me uní a una startup tecnológica y me convertí en parte de Silicon Valley. Básicamente, recibí una educación sobre lo que es Silicon Valley porque, unos meses después de unirme a una startup muy orientada a la misión que se enfocaba en construir tecnologías que ayudarían a facilitar la lucha contra el cambio climático, la junta despidió al CEO porque la empresa no era rentable. Y este fue, en retrospectiva, un momento muy crucial para mí porque pensé: "Si este centro está orientado a construir tecnologías rentables y muchos de los problemas del mundo que creo que necesitan resolverse no son problemas rentables, entonces, ¿qué estamos haciendo aquí?".

Tuve un poco de crisis en ese momento, pensé: "Bueno, acabo de pasar 4 años preparándome para esta carrera que ahora no creo que sea adecuada para mí". Así que pensé: "Bueno, podría intentar algo totalmente diferente". Siempre me ha gustado escribir y así fue como, después de 2 años, llegué a un puesto en MIT Technology Review cubriendo IA a tiempo completo, lo que me dio un espacio para explorar todas estas preguntas sobre quién decide qué tecnologías construimos, cómo el dinero y la ideología también impulsan la producción de esas tecnologías, y cómo asegurarnos de que realmente reimaginamos el ecosistema de innovación para que funcione para una amplia base de personas en todo el mundo. Así fue como comencé este viaje que finalmente me llevó a escribir un libro. No me di cuenta de que estaba trabajando hacia la escritura de un libro, pero a partir de 2018, cuando tomé ese trabajo, fue esencialmente el momento en el que comencé a investigar la historia que documenté en él.

Capítulo 3: Lo que 250 Insiders de OpenAI Revelaron Detrás de Puertas Cerradas Fue un momento muy oportuno para comenzar a trabajar en inteligencia artificial. Para cualquiera que no lo sepa, esto fue antes del lanzamiento de OpenAI ChatGPT, un momento que sacudió al mundo. Pero al escribir este libro, entrevistaste a muchas personas y fuiste a muchos lugares. ¿Puedes darme una idea de cuántas personas has entrevistado, a dónde te ha llevado alrededor del mundo, etc.?

Entrevisté a más de 250 personas, así que más de 300 entrevistas, más de 90 de esas personas eran ex-empleados o empleados actuales de OpenAI y ejecutivos. Así que el libro cubre la historia interna de la primera década de OpenAI y cómo llegó a donde está hoy. Pero no quería escribir un libro corporativo. Sentía muy firmemente que, para ayudar a las personas a entender el impacto de la industria de la IA, también tendríamos que viajar mucho más allá de Silicon Valley. Estas empresas nos dicen que la IA va a beneficiar a todos y esa es su misión. Pero realmente comienzas a ver que esa retórica se desmorona cuando vas a los lugares que no se parecen en nada a Silicon Valley, que no hablan nada como Silicon Valley y que tienen una historia y cultura que son fundamentalmente diferentes también. Y ahí es donde comienzas a entender realmente la verdadera realidad de cómo esta industria se está desarrollando a nuestro alrededor.

Karen, a menudo trato de dirigir las conversaciones, pero en esta situación, siento que probablemente es mi responsabilidad seguir. Así que, con eso en mente, te preguntaré: ¿dónde comienza este viaje y dónde deberíamos comenzar si hablamos de los temas del imperio de la IA, de la IA en general?

Creo que deberíamos comenzar con cuándo comenzó la IA como campo. Esto fue en 1956, y había un grupo de científicos que se reunieron en la Universidad de Dartmouth para comenzar una nueva disciplina, una disciplina científica para intentar perseguir una ambición. Y específicamente, un profesor asistente en la Universidad de Dartmouth, John McCarthy, decidió nombrar a esta disciplina inteligencia artificial. Este no fue el primer nombre que intentó. El año anterior intentó nombrarla "Estudios de Autómatas". Y la razón por la que algunos de sus colegas estaban preocupados por este nombre era porque vinculaba la idea de esta disciplina a recrear la inteligencia humana. Y en aquel entonces, como es cierto hoy, no tenemos un consenso científico sobre lo que es la inteligencia humana. No hay una definición desde la psicología, biología o neurología. De hecho, cada intento en la historia de cuantificar y clasificar la inteligencia humana ha sido impulsado por motivos nefastos. Ha sido impulsado por el deseo de probar científicamente que ciertos grupos de personas son inferiores a otros grupos de personas.

No hay metas para este campo y no hay metas para la industria cuando dicen que están tratando de recrear sistemas de IA que sean tan inteligentes como los humanos. ¿Cómo definimos eso? ¿Y cuándo llegaremos allí si no sabemos cómo definir el destino? Y lo que eso significa efectivamente es que estas empresas pueden usar el término "inteligencia general artificial" que ahora es el término para referirse a este objetivo ambicioso de recrear la inteligencia humana. Pueden usarlo como quieran y pueden definirlo y redefinirlo según lo que les convenga. Así que, en la historia de OpenAI, ha definido y redefinido muchas veces. Cuando Sam Altman habla con el Congreso, AGI es un sistema que va a curar el cáncer, resolver el cambio climático, curar la pobreza. Cuando habla con los consumidores a los que intenta vender sus productos, es el asistente digital más increíble que jamás tendrás. Cuando hablaba con Microsoft, en el acuerdo que OpenAI y Microsoft hicieron donde Microsoft invirtió en la empresa, se definió como un sistema que generará cientos de miles de millones de ingresos. Y en el propio sitio web de OpenAI, lo definen como sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos. Esto no es una visión coherente de una sola tecnología. Estas son definiciones muy diferentes que se expresan en voz alta al público que necesita ser movilizado para evitar la regulación o para obtener más aceptación del consumidor en la búsqueda de la industria o para obtener más capital y recursos para continuar con este viaje con definiciones ambiguas.

Hablando de diferentes definiciones a lo largo del tiempo, en 2015, en un blog que Sam Altman escribió antes de que OpenAI se anunciara oficialmente, delineó explícitamente el riesgo existencial al decir: "El desarrollo de inteligencia de máquina superhumana es probablemente la mayor amenaza para la existencia continua de la humanidad. Hay otras amenazas que creo que son más seguras de suceder, por ejemplo, un virus diseñado, pero la IA es probablemente la forma más probable de destruir todo en general". Cuando Altman escribe para el público o habla para el público, no solo tiene al público como audiencia en mente, hay otras personas a las que está tratando de motivar o movilizar cuando dice estas cosas. Y en ese momento particular, Altman estaba tratando de convencer a Elon Musk para que se uniera a él en la co-fundación de OpenAI. Y Musk, en particular, estaba dedicando todo su tiempo a sonar la alarma sobre lo que veía como una gran amenaza existencial que la IA podría representar. Así que en ese blog, si miras el lenguaje que Altman usa lado a lado con el lenguaje que Musk estaba usando en ese momento, se refleja en todas las cosas que Musk estaba diciendo.

Capítulo 4: ¿Realmente Sam Altman Superó a Elon Musk? Identical. Hace 10 años, Musk estaba yendo a podcasts, diciendo, tuiteando, lo que sea, que el mayor riesgo existencial para la humanidad era la IA. Sí. Y así, sabes, como su paréntesis, hay otras cosas que podrían suceder que podrían ser más probables, como virus diseñados. Es porque hasta entonces Altman había estado hablando solo sobre virus diseñados. Y ahora que necesita pivotar para hablar a una audiencia de uno, a Musk, necesita resolver la contradicción entre lo que ahora está elevando como su nuevo miedo central y lo que había estado diciendo anteriormente.

¿Estás diciendo que Sam Altman manipuló a Musk porque Elon terminó donando una gran cantidad de dinero a OpenAI y co-fundando la empresa, creo, con Sam Altman?

Elon Musk terminó co-fundando la empresa con Altman. Y ciertamente desde la perspectiva de Musk, siente que fue manipulado porque siente que Altman estaba ingeniosamente usando su lenguaje de una manera que haría que Musk confiara en él como un socio en este esfuerzo. Y, por supuesto, Musk se va. A través de algunos de los documentos que salieron durante la demanda en la que Musk y Altman están involucrados ahora, ha quedado claro que hubo un grado en el que Musk fue realmente excluido de la toma de decisiones.

Así que por eso se queda con esta intensa vendetta personal contra Altman, diciendo que de alguna manera Altman lo engañó para que fuera parte de esto. Así que en 2015, Sam Altman está escribiendo estos blogs diciendo que esta es, sabes, una de las mayores amenazas existenciales. Al mismo tiempo, en 2015, Musk está dando algunos discursos muy famosos en ese momento en el MIT. Dijo que la IA era la mayor amenaza existencial y comparó el desarrollo de la IA con invocar al demonio.

Y lo que estás diciendo aquí es que Sam Altman estaba simplemente reflejando el lenguaje que Elon estaba usando para involucrar a Elon en OpenAI. Y luego parece que, y nuevamente, hay un caso legal en curso ahora que Sam podría haber manipulado a Elon de alguna manera.

Sí. Así que sabemos por la demanda y los documentos que han salido en la demanda que Ilia Sutskever, quien era el científico jefe de OpenAI en ese momento, y Greg Brockman, el director de tecnología en ese momento, cuando estaban decidiendo si mantener OpenAI como una organización sin fines de lucro, porque originalmente se fundó como una organización sin fines de lucro, decidieron que necesitaban crear una entidad con fines de lucro, pero la pregunta era quién debería ser el CEO de esta entidad con fines de lucro. ¿Debería ser Musk o debería ser Altman? Porque eran los dos co-presidentes de la organización sin fines de lucro. Y en los correos electrónicos, quedó claro que Ilia y Greg primero eligieron a Musk para ser el CEO. Pero a través de mi investigación, descubrí que Altman luego apeló personalmente a Greg Brockman, quien era amigo suyo, que se conocían desde hace muchos años en la escena de Silicon Valley, y dijo: "¿No crees que sería un poco peligroso tener a Musk como CEO de esta empresa, de esta nueva entidad con fines de lucro, porque, sabes, es un tipo famoso, tiene muchas presiones en el mundo, podría ser amenazado, podría actuar de manera errática, podría ser impredecible. ¿Realmente queremos que una tecnología que podría ser superpoderosa en el futuro termine en manos de este hombre?". Y eso convenció a Greg, y Greg luego convenció a Ilia, sabes, creo que hay un punto aquí. ¿Realmente queremos darle tanto poder a Musk? Y es por eso que Musk luego se va, porque luego los dos cambian su lealtad. Dicen: "En realidad, queremos que Altman sea el CEO". Y luego Musk dice: "Si no soy el CEO, me voy".

Capítulo 5: Lo que la Gente Se Equivoca Acerca de Sam Altman Parece que Sam nuevamente logró persuadir a alguien para que hiciera algo. Mhm. Supongo que esto plantea la pregunta, ¿qué piensas de Sam Altman? Creo que es una figura muy controvertida. Hiciste una pausa interesante. Es una pausa donde alguien intenta seleccionar sus palabras. Bueno, esto es lo que es tan interesante sobre esas entrevistas, es que las personas están extremadamente polarizadas sobre Altman. Nadie tiene sentimientos intermedios sobre él. O piensan que es el mejor líder tecnológico de esta generación, similar a Steve Jobs de la era moderna, o piensan que es realmente manipulador, un abusador y un mentiroso. Y lo que me di cuenta, porque entrevisté a tantas personas, es que realmente se reduce a cuál es la visión de esa persona sobre el futuro y cuáles son sus objetivos. Así que si te alineas con la visión de Altman sobre el futuro, vas a pensar que es el mayor activo que puedes tener a tu lado porque este hombre es realmente persuasivo. Es increíble contando historias, es increíble movilizando capital, reclutando talento, obteniendo todos los insumos que necesitas para hacer que ese futuro suceda. Pero si no estás de acuerdo con su visión del futuro, entonces comienzas a sentir que estás siendo manipulado por él para apoyar su visión incluso si no estás de acuerdo con ella. Y esta es la historia especialmente de Dario Amodei, CEO de Anthropic, quien originalmente fue un ejecutivo en OpenAI. Así que para quienes no lo sepan, Dario ahora dirige Anthropic, que es el creador de Claude. Muchas personas probablemente están más familiarizadas con Claude. Sí. Y es uno de los mayores competidores de OpenAI. Y Amodei, en el momento en que era un exejecutivo de OpenAI, pensó que Altman estaba en la misma página que él y luego, con el tiempo, comenzó a sentir que Altman estaba, de hecho, en la página opuesta a él y sintió que Altman había usado la inteligencia, las capacidades y habilidades de Amodei para construir cosas y llevar a cabo una visión del futuro con la que en realidad no estaba de acuerdo. Y es por eso que las personas terminan con este mal sabor en la boca.

He estado cubriendo la industria tecnológica durante más de ocho años y he cubierto muchas empresas. He cubierto Meta, Google, Microsoft, además de OpenAI. Y OpenAI y Altman son la única figura con la que he visto este grado de polarización donde las personas no pueden decidir si es el mejor o el peor.

Capítulo 6: La Lucha por el Poder: ¿Quién Intentó Despedir a Sam Altman y Por Qué? Mencionaste a Dario y me parece realmente interesante observar cómo las citas de las personas evolucionan con el tiempo según sus incentivos. Así que estuve mirando todas las cosas que han dicho públicamente en sus podcasts, en sus publicaciones de blogs para ver cómo ha evolucionado con el tiempo. Y Dario, quien fue el ex VP de investigación de OpenAI y ahora se ha mudado a Anthropic, que está tomando un enfoque ligeramente diferente para desarrollar IA, dijo en 2017, mientras aún estaba en OpenAI, que esta es una cita: "Creo que en el extremo, es el estilo de miedo de Nick Bostrom que una AGI podría destruir a la humanidad. No puedo ver ninguna razón en principio por la cual eso no podría suceder. Mi posibilidad de que algo salga realmente mal a gran escala de la civilización humana podría estar entre el 10% y el 25%".

Y también mencionaste a Ilia, quien fue cofundador de OpenAI y luego se fue. Supongo que la primera pregunta que haría es: ¿por qué se fue?

Es una gran pregunta. Así que él fue fundamental en tratar de despedir a Sam Altman y es otra de las personas que, con el tiempo, comenzó a sentir que estaba siendo manipulado por Altman hacia contribuir en algo en lo que no creía. Y porque entrevisté a muchas personas, Ilia en particular tenía dos pilares que le importaban profundamente. Uno es asegurarse de que lleguemos a la llamada AGI y el otro es asegurarse de que lleguemos a ella de manera segura. Y sintió que Altman estaba socavando ambas cosas. Sintió que Altman estaba creando un ambiente muy caótico dentro de la empresa, donde estaba enfrentando a los equipos entre sí, donde estaba diciendo cosas diferentes a diferentes personas.

¿Alguna vez has hablado con él?

Lo he hecho. Así que lo entrevisté en 2019 para un perfil que hice de OpenAI para MIT Technology Review. Y en 2019, tiene una cita donde dice: "El futuro va a ser bueno para las IA independientemente. Sería bueno si también fuera bueno para los humanos. No es que vaya a odiar a los humanos o quiera hacerles daño, pero simplemente va a ser tan poderoso. Y creo que una buena analogía sería la forma en que los humanos tratan a los animales. No es que odiemos a los animales. Creo que los humanos aman a los animales y tengo mucho afecto por ellos. Pero cuando llega el momento de construir una carretera entre dos ciudades, no estamos pidiendo permiso a los animales. Simplemente lo hacemos porque es importante para nosotros. Y creo que, por defecto, esa es la relación que va a haber entre nosotros y la IA, que son realmente autónomas y operan en su propio nombre".

Y eso fue en 2019, el año en que lo entrevistaste. Una de las cosas que siento que deberíamos retroceder para examinar es volver a esta idea de qué es realmente la inteligencia artificial y qué queremos decir con inteligencia. Y una gran parte de las opiniones de las diferentes personas y las citas que estás leyendo deriva de una creencia específica que cada uno tiene en esta pregunta de qué es la inteligencia, qué constituye la inteligencia.

Para Ilia, a lo largo de su carrera de investigación, ha sentido que, en última instancia, nuestros cerebros son modelos estadísticos gigantes. Esto no es algo que realmente sepamos, pero esta es su propia hipótesis, también la hipótesis de su mentor, Jeffrey Hinton, quien también estuvo en este podcast. Esta es la razón por la que tienen una fuerte convicción en la idea de construir sistemas de IA que son modelos estadísticos y que este enfoque particular conducirá a sistemas inteligentes como nosotros somos inteligentes. Es una hipótesis que tienen. No es algo que haya sido probado por la ciencia. Y algunas personas están en desacuerdo vehementemente con ellos sobre esta cosa particular. Pero si te pones en sus zapatos y asumes que su hipótesis es verdadera, que nuestros cerebros son en realidad motores estadísticos y que estos sistemas que están construyendo también son motores estadísticos, que están haciendo más grandes y más grandes hasta que se vuelvan del tamaño del cerebro humano. Por eso dicen que hacer esta comparación donde el sistema se volverá igual a la inteligencia humana y luego tal vez exceda la inteligencia humana es relevante en su marco.

Ilia dio una charla en un momento en esta conferencia de investigación de IA muy prominente que sucede cada año llamada "sistemas de procesamiento de información neuronal". Es un trabalenguas, pero dio esta conferencia donde mostró este gráfico del tamaño de los cerebros y la inteligencia de una especie. Y es aproximadamente lineal. Cuanto más grande es el tamaño del cerebro, más inteligente es la especie. Y así, para él, piensa que está construyendo un cerebro digital porque cree que los cerebros son solo motores estadísticos. Así que, desde esa lógica, es como: "Está bien, si construimos un motor estadístico más grande que el cerebro humano, entonces, según este gráfico, será más inteligente y luego estaremos sujetos al mismo trato que hemos sometido a los animales". Pero es muy importante entender que estas son hipótesis científicas de individuos específicos dentro de la comunidad de investigación de IA y hay mucho debate sobre si este es realmente el caso. Algunos de los críticos más grandes dicen que es muy reductivo pensar en nuestros cerebros como simplemente motores estadísticos.

Capítulo 7: La Verdadera Razón por la que los Gigantes Tecnológicos Están Compitiendo por Construir IA Así que, ¿por qué lo están haciendo? Quiero decir, has entrevistado a todas estas personas. Creo que son, ¿300 personas en total, 80 o 90 de ellas de OpenAI, el creador de ChatGPT? ¿Por qué crees que lo están haciendo?

Creo que están impulsados por una agenda imperial. Y es por eso que llamo a estas empresas imperios de IA. ¿Qué quieres decir con una agenda imperial? ¿Qué significa ese término?

Imperio es la única metáfora que he encontrado que encapsula completamente todas las dimensiones de lo que hacen estas empresas y la escala en la que operan y lo que los motiva a hacer lo que hacen. Hay muchos paralelismos que ves entre lo que llamo los imperios de la IA y los imperios del pasado. Reclaman recursos que no son suyos en la búsqueda de entrenar estos modelos. Esa es la data de individuos, la propiedad intelectual de artistas, escritores y creadores. Están apropiándose de tierras para construir estas instalaciones de supercomputación para entrenar los próximos modelos de generación. En segundo lugar, explotan una cantidad extraordinaria de mano de obra. Contratan a cientos de miles de trabajadores en todo el mundo, incluidos en los EE. UU., para, en última instancia, hacer estas tecnologías. Podemos hablar más sobre eso. Y también diseñan sus herramientas para automatizar el trabajo, de modo que cuando se despliegan las tecnologías, también afecta los derechos laborales porque erosiona los derechos laborales. Y esta es una elección política que han tomado.

En tercer lugar, monopolizan la producción de conocimiento. Y así proyectan esta idea de que son los únicos que realmente entienden cómo funciona la tecnología. Y así, si al público no le gusta, es porque no saben lo suficiente sobre esta tecnología. Hacen esto al público. Hacen esto a los responsables de políticas. Y también han capturado a la mayoría de los científicos que están trabajando en comprender las limitaciones y capacidades de la IA.

¿Crees que están manipulando al público de alguna manera?

Lo están haciendo, sí. Así que si la mayoría de los científicos climáticos en el mundo fueran financiados por empresas de combustibles fósiles, ¿crees que obtendríamos una imagen precisa de la crisis climática? No. Y de la misma manera, la industria de la IA emplea y financia a la mayoría de los investigadores de IA en el mundo. Así que establecen la agenda de la investigación en IA de maneras sutiles, simplemente canalizando dinero hacia sus prioridades para que solo se produzcan ciertos tipos de investigaciones sobre IA. Pero también censurarán a los investigadores cuando no les guste lo que el investigador ha encontrado. Y así hablo sobre el caso de la Dra. Timnit Gebru en mi libro, quien fue la co-líder del equipo de IA ética en Google, cuando fue contratada para criticar los tipos de sistemas de IA que Google estaba construyendo. Luego co-escribió un artículo de investigación crítico que mostraba cómo los modelos de lenguaje grandes estaban llevando a ciertos tipos de resultados dañinos. Y en un intento de tratar de detener esta investigación de ser publicada, Google terminó despidiendo a Gebru y luego despidió a su otro co-líder, Margaret Mitchell.

Y así controlan y aplastan la investigación que es inconveniente para la agenda del imperio.

Conclusión Este es un resumen del transcript limpiado. Se han corregido errores ortográficos y de formato, manteniendo el contenido y el significado original. Si necesitas más ajustes o un formato diferente, házmelo saber.