Suscríbete
y más

Hablar con las máquinas

Escucha este episodio más tarde

En la década de los 50, crear una máquina pensante parecía cuento de ciencia ficción. Pero John McCarthy decidió hacerlo realidad, y comenzó con un idioma que llamó LISP. Colin Garvey nos cuenta que McCarthy creó el primer lenguaje para la inteligencia artificial (IA). Sam Williams explica que el interés temprano en las máquinas pensantes se extendió desde la academia hacia el mundo empresarial, y que después de que ciertos proyectos no cumplieron sus promesas, llegó un largo invierno en este sector. Ulrich Drepper habla de que los sueños de la inteligencia artificial fueron más allá de lo que el hardware podía lograr en ese momento. Pero el hardware se vuelve más poderoso día con día. Chris Nicholson señala que las máquinas actuales tienen suficiente potencia de procesamiento para manejar esa demanda de recursos, de manera que estamos en medio de un resurgimiento revolucionario en la investigación y el desarrollo de esta área. Finalmente, Rachel Thomas habla de otros lenguajes de IA además de LISP, y explica los diferentes tipos de tareas para las que se está preparando a la inteligencia artificial.

00:05 - Locutor:

Kaspárov está nervioso. Está defendiendo las piezas que puede, pero sabe que ya perdió.

00:12 - Presentadora:

En la primavera de 1997, el campeón mundial del ajedrez, Garry Kaspárov, perdió una partida contra el programa informático Deep Blue. Fue un momento decisivo para la inteligencia artificial. Para algunos fue una crisis existencial, un desafío a la supremacía del intelecto humano. Pero para los tecnólogos, esto era un parteaguas distinto, un avance importante en el campo de la inteligencia artificial. Era una señal de que su sueño de una máquina realmente inteligente tal vez no era tan descabellado.

00:47 - Locutor:

Seguimos soñando con una máquina que pueda pensar, y todavía nos faltan muchos años y muchos avances extraordinarios para lograrlo.

00:56 - Presentadora:

¿Pero cómo llegamos a ese momento? ¿Qué avances nos llevaron a la famosa derrota de Kaspárov? ¿Y qué hicimos a partir de entonces? Estás escuchando Command Line Heroes en español, un podcast original de Red Hat. Esta temporada nos hemos dedicado a analizar los misterios de los lenguajes de programación, y a descubrir su historia y su potencial. En este episodio vamos a hablar de la inteligencia artificial. ¿Qué lenguaje utilizas cuando la tecnología tiene su propia mente? ¿Cómo nos ayudaron los lenguajes de programación a llegar al momento de Deep Blue y a seguir avanzando mucho más? La pregunta de qué lenguaje funciona mejor con una máquina que piensa nos la hemos planteado durante más de medio siglo. Nuestra historia comienza en la década de 1940, cuando el término “inteligencia artificial” ni siquiera se había acuñado.

01:59 - Presentadora:

Para empezar nos tenemos que remontar al final de la Segunda Guerra Mundial. Hay una sensación de que los aliados ganaron la guerra gracias a la tecnología. Había una idea muy optimista de que con ella se podía lograr todo. Toda esa generación creía en el poder de la informática. De esa generación proviene uno de los padres de la inteligencia artificial, John McCarthy. McCarthy era un matemático brillante que revolucionó la forma en que nos comunicamos con las máquinas. Me interesaba conocer los orígenes de sus ideas y saber cómo surgió ese cambio de paradigma. Por ejemplo, se me ocurre una primera pregunta: cuando McCarthy y sus compañeros se imaginaban el futuro de las máquinas inteligentes, ¿qué se imaginaban exactamente?

02:43 - Colin Garvey:

Uy, qué buena pregunta.

02:46 - Presentadora:

Para encontrar la respuesta entrevisté a Colin Garvey. Es historiador del departamento de Estudios de Ciencia y Tecnología del Instituto Politécnico Rensselaer. Aquí presento una parte de nuestra conversación.

02:58 - Colin Garvey:

McCarthy se niega rotundamente a aventurar una idea de ese futuro. Pero, por ejemplo, probablemente su programa más famoso, que de hecho nunca se implementó, sino que es como un artículo de reflexión, es el advice taker. McCarthy escribió sobre el advice taker en 1960 en un texto titulado Programs with Common Sense. Cuando comienza, parece que el advice taker probablemente es un robot que aprende, y esa es la intención, un robot doméstico que acepta consejos. Le dices: “No, así no, lo estás haciendo mal. Hazlo así”. Y el robot entiende a qué te refieres.

03:44 - Presentadora:

Suena útil.

03:45 - Colin Garvey:

Sí, podría ser útil. El objetivo del advice taker era conducir desde el escritorio de McCarthy hasta el aeropuerto. Básicamente, formalizó su noción de lo que el robot advice taker debería hacer, que aparentemente era llevarlo al aeropuerto. La formalizó en una serie de declaraciones lógicas con las que el robot tendría que inferir lo que debe suceder en la situación actual para convertirla en la situación deseada. Eso lo formalizó en un tipo de pseudocódigo, así lo llamaríamos ahora. Y ahí es donde también se origina LISP. Luego, en los próximos años, LISP sale como la implementación o el lenguaje de implementación de McCarthy.

04:39 - Presentadora:

El lenguaje LISP de McCarthy significó un cambio radical. Ayudaría a una máquina a comprender no solo los comandos, sino también una lógica de sentido común. Lo que McCarthy descubrió fue que podía escribir expresiones condicionales, o sea códigos que implicaran reglas, en lugar de escribir solo comandos directos. De hecho, hubo una serie de importantes avances en la programación con LISP, como los condicionales, la recolección de basura, la recurrencia y muchos más. LISP utilizaba listas de código y datos, lo cual representaba un cambio sencillo pero tenía efectos importantes. Todo esto le abrió la puerta de entrada a un campo que el mismo McCarthy llamó inteligencia artificial. Fue un cambio de paradigma para los lenguajes. Imagínate hablar con una máquina sin darle información completamente detallada. Imagínate invitar a esa máquina a inferir y razonar. Mediante el lenguaje LISP, McCarthy esperaba poder darle algún tipo de inteligencia a la máquina. Bueno, ahora regresemos a mi conversación con Colin Garvey.

05:41 - Colin Garvey:

Perfeccionó los intentos anteriores de escribir un lenguaje informático de alto nivel.

05:47 - Presentadora:

Ah, qué interesante, porque de hecho esa era mi siguiente pregunta, la relación entre LISP y la inteligencia artificial. Porque parece que la primera idea de lo que podría hacer la inteligencia artificial, esa máquina que tomaba consejos, era el comienzo de LISP. Cuéntame más sobre la relación entre LISP y la inteligencia artificial.

06:04 - Colin Garvey:

Claro. Una de las cosas a las que se enfrentaban las primeras personas que trabajaban en la inteligencia artificial era que programaban con tarjetas de perforación, y probablemente sabían cómo programar al nivel del código de la máquina. Pero eso lleva mucho tiempo y es muy difícil. Entonces se necesitaban lenguajes superiores que nos permitieran dar instrucciones que se acercaran más al lenguaje humano. Un lenguaje como LISP da instrucciones en una lista. De hecho, de ahí proviene el nombre, que significa list-based processing, o procesamiento basado en listas. Y es una lista de instrucciones que se parecen mucho más al lenguaje humano, en el sentido de que son básicamente proposiciones lógicas. Así que si sabes leer la lógica formal, también puedes leer un programa LISP, o cualquiera de los lenguajes de programación basados en lógica, para tener una idea mucho mejor de lo que sucede en el código.

07:10 - Presentadora:

Así que LISP ayudó mucho... Sí, es decir, nos ayudó a avanzar hacia nuestras ideas sobre la inteligencia artificial para hacerlas realidad, lo cual me lleva a otra pregunta: ¿qué significaba “inteligencia” en ese momento? O sea, si volvemos a la década de los cincuenta, ¿qué era la inteligencia? ¿Cómo la definían en ese entonces? Porque LISP se desarrolló por primera vez para la IBM 704, que en realidad hace una sola cosa a la vez. Así que... la verdad que no suena muy inteligente. Entonces, pues, ¿qué pensaban las personas sobre la inteligencia en ese momento?

07:43 - Colin Garvey:

Pues sí, esa es una idea muy controvertida. En mi manera de ver las cosas, tenían conceptos muy limitados desde una perspectiva social. Pero, sí, en ese momento, por ejemplo, la definición general era la capacidad de desarrollar un comportamiento que pudiera describirse como inteligente. Pero estamos hablando de matemáticos, lógicos y programadores informáticos. Es decir, en pocas palabras, consideraban la capacidad de jugar al ajedrez como una señal determinante de inteligencia. Esa primera generación de gente que se dedicaba a la inteligencia artificial estaba mucho más dispuesta a esquivar esa pregunta, con un argumento como: “Pues, los filósofos no se han puesto de acuerdo sobre lo que es la inteligencia, pero si hacemos una computadora que pueda jugar al ajedrez, creo que todos vamos a estar de acuerdo en que es inteligente”.

08:40 - Presentadora:

Bueno, de todos modos era el punto de partida. Poco a poco.

08:45 - Colin Garvey:

El sueño de McCarthy era que las máquinas fueran tan inteligentes como las personas y que tuvieran sentido común. Y que pudiera hablarles. Y se propuso crear un lenguaje de programación para que ese sueño se volviera realidad. Y bueno, eso se convirtió en LISP, y capturó ciertos aspectos del pensamiento humano, sobre todo del pensamiento lógico, e hizo posible el uso de las computadoras para amplificar o ampliar esas características del pensamiento. Entonces, desde la perspectiva de un matemático, McCarthy iba por buen camino para hacer realidad las máquinas inteligentes.

09:32 - Presentadora:

Colin Garvey es historiador del departamento de Estudios de Ciencia y Tecnología del Instituto Politécnico Rensselaer. Con LISP comenzaron a abrirse nuevas oportunidades para que avanzara la inteligencia artificial, y LISP era el lenguaje estándar de ese nuevo territorio. Después de que McCarthy dejara su puesto en el MIT para aceptar un trabajo en Stanford, otros ingenieros del MIT siguieron trabajando en LISP. Refinaron el lenguaje de McCarthy hasta llegar a un dialecto local llamado Maclisp, e incluso desarrollaron un sistema operativo LISP. Parecía que el sueño de McCarthy de un futuro con inteligencia artificial tenía muchas posibilidades de volverse realidad. En 1968, McCarthy incluso hizo una apuesta con el escocés David Levy, que era un maestro del ajedrez. McCarthy le apostó que en diez años una computadora le podría ganar una partida de ajedrez. Pero esta no sería una historia de Command Line Heroes si las cosas fueran así de sencillas. McCarthy no sabía que le estaba llegando el invierno a la inteligencia artificial.

10:45 - Presentadora:

(Las cosas comenzaron a cambiar cuando ese sistema operativo basado en LISP del MIT llegó a las empresas. Una de esas empresas, Symbolix, introdujo máquinas LISP e incluso contrató a 14 empleados del laboratorio de inteligencia artificial del MIT. Así que la investigación más idealista, digamos, dejó de ser el centro de atención.

11:25 - Sam Williams:

Surgen todas las compañías ramificadas que salían del laboratorio de inteligencia artificial.

11:31 - Presentadora:

Escuchamos a Sam Williams, el periodista que escribió el libro llamado “Arguing AI”.

11:36 - Sam Williams:

Symbolix es probablemente la que más sobresale. Era la que recibía más atención, más financiación de proyectos. Todos los discípulos de John McCarthy estaban impulsando esa innovación. Y yo creo que a fines de la década de los setenta lo que sucedió es que la gente quiso cosechar lo que había sembrado, y dijo: “Bueno, hicimos lo que pudimos en el mundo académico, vamos a sacar esto al mundo de los negocios y dejemos que el sector privado lo termine”.

12:01 - Presentadora:

En ese momento era lógico. Parecía que la inteligencia artificial estaba a punto de despegar. Se podía hacer dinero.

12:07 - Sam Williams:

La potencia informática era lo suficientemente barata para que una empresa de mediano nivel pudiera comprarla. Creo que muchas empresas vieron la oportunidad y pensaron: “Bueno, hay un mercado para esto, podemos ir y vendérselo a las compañías que intentan ser competitivas a nivel mundial”. Y lograron que los inversionistas les creyeran ese discurso. Hubo grandes inversiones en el campo a principios de los ochenta.

12:29 - Presentadora:

Podríamos debatir sobre las razones por las que las grandes inversiones se agotaron más adelante. Pero lo que sabemos con certeza es que las cosas se habían exagerado muchísimo.

12:39 - Sam Williams:

Ingresó mucho dinero. La gente creía que el mercado ya estaba muy maduro.

12:44 - Presentadora:

De cierto modo, esa gran apuesta de dinero en la inteligencia artificial fue el preludio a la burbuja del puntocom que explotó al comienzo del milenio.

12:52 - Sam Williams:

Como suele suceder en tecnología, la gente invirtió de más, y al final las empresas no cumplieron lo que prometían. Pero entonces se redujo mucho el flujo de dinero que ingresaba. Las empresas tenían que ganar dinero de la manera tradicional, desarrollando una base de clientes y eso.

13:08 - Presentadora:

Entonces, el sueño de McCarthy iba cayendo en picada a la realidad. Escuchemos cómo Williams describe el invierno de la inteligencia artificial.

13:16 - Sam Williams:

Ves a una compañía como Symbolix alcanzar una capitalización bursátil de $100 millones, y unos pocos años después pide protección en virtud del Capítulo 11 (que en los Estados Unidos significa quiebra). Está muy presente la idea de “En diez años, vamos a hacer esto. En cinco años, verán esto otro”. Son comerciantes que exageran, o simplemente son académicos que quieren obtener más fondos del Pentágono, o de otras instituciones que los financian. Hay un fenómeno peligroso en que la gente exagera, y luego exagera más sobre la inteligencia artificial, y luego simplemente dice “pasemos a otra cosa”.

13:48 - Presentadora:

El interés en la inteligencia artificial simplemente se derrumbó. Y el que no hubiera infraestructura, o que la velocidad informática no fuera lo suficientemente alta, tampoco ayudó. Pero, de cualquier forma, este es el ejemplo perfecto de una idea correcta en la década equivocada. Para fines de la década de los ochenta, la investigación en inteligencia artificial estaba disminuyendo.

14:06 - Sam Williams:

Creo que las personas se alejaron de lo que las había llevado al campo de la inteligencia artificial, que era muy audaz. Era una oportunidad de hacer algo de vanguardia. En la costa oeste de los Estados Unidos se invierte mucha energía en fabricar computadoras personales. Imagínate que 40 años después, la idea de llevar una computadora a cada hogar de los Estados Unidos es mucho más atractiva que ayudar a algunas de las empresas de la lista Fortune 1000 a tomar mejores decisiones.

14:39 - Presentadora:

Sam Williams es autor de “Arguing AI”. Entonces lo que estamos describiendo es un mundo de la programación informática que se dividió en dos. Por un lado, están los John McCarthy, que intentan usar nuevos tipos de lenguajes como LISP, para indagar sobre la naturaleza de la inteligencia. Por otro lado y de manera inevitable, hay personas que intentan resolver problemas prácticos y facilitarles las cosas a las empresas que están dispuestas a pagar por ello. La realidad era que los John McCarthy del mundo, los soñadores más abstractos, no tenían mucha oportunidad de analizar a profundidad las posibilidades de la inteligencia artificial. El equipo que tenían ni siquiera se acercaba a los teléfonos celulares que usamos hoy en día. Su visión era demasiado grande para la realidad del hardware de ese momento.

15:36 - Ulrich Drepper:

Las máquinas eran... eran grandes máquinas ruidosas, que usaba mucha mucha gente en los grupos de trabajo.

15:46 - Presentadora:

Ese era Ulrich Drepper, un distinguido ingeniero de Red Hat. Nos va a explicar que aquel primer sueño de inteligencia artificial simplemente no contaba con las herramientas básicas que necesitaba para tener éxito.

15:55 - Ulrich Drepper:

Teníamos PDP 10, PDP 11, y ese tipo de máquinas, en que puede haber 20 personas trabajando, máximo. Eran máquinas de muy baja potencia, que en realidad no tenían la capacidad de ejecutar una interfaz de usuario bien desarrollada, además de todas las funciones necesarias para un sistema LISP.

16:19 - Presentadora:

A medida que pasaron los años, el hardware que se desarrollaba tampoco era favorable para LISP.

16:26 - Ulrich Drepper:

Nos decidimos por las máquinas de escritorio, pero también por los servidores. En el tipo de procesadores a los que estamos acostumbrados hoy en día, vemos divisiones de los procesos en bytes de ocho bits. Así que tal vez tenemos un procesador de 16 bits, o un procesador de 32 bits, y así. Y para que ese tipo de máquinas se implementara en un sistema LISP de manera eficiente, había que sortear varias dificultades para que realmente funcionara.

16:56 - Presentadora:

Así que las realidades externas del mundo de la informática tenían efectos perjudiciales imprevistos en el campo frágil de la inteligencia artificial.

17:06 - Ulrich Drepper:

El hardware personalizado resultó ser una posibilidad muy costosa y lenta, especialmente en comparación con las CPU, que eran de uso común. Los grandes fabricantes de CPU.

17:21 - Presentadora:

Se podía crear esas soluciones alternativas de hardware personalizadas y seguir trabajando con LISP, y seguir avanzando hacia el sueño de la inteligencia artificial. Pero lo que pasó es que el nuevo hardware llevó a muchas personas hacia otras áreas de trabajo.

17:35 - Ulrich Drepper:

Las mejoras que obtenías si esperabas la siguiente versión del procesador... del procesador normal, eran mucho mayores de lo que podías lograr y ganar desarrollando tu propio hardware para resolver, por ejemplo, la implementación de un sistema LISP. Así que, al final, la complejidad simplemente no funcionó.

18:03 - Presentadora:

Entonces, ¿el gran sueño de John McCarthy estaba muriendo lentamente o solo estaba hibernando durante aquel largo invierno de la inteligencia, esperando a que le llegara el momento? Durante la década del año 2000, el lenguaje de John McCarthy, LISP, se usaba cada vez menos. Pero al mismo tiempo sucedió algo increíble. El lenguaje comenzó a desvanecerse, pero el sueño relacionado se reavivó. El sueño de la inteligencia artificial comenzó a cobrar vida nuevamente.

18:34 - Chris Nicholson:

Quiero pensar que esta vez es diferente.

18:36 - Presentadora:

Ese era Chris Nicholson, fundador y director ejecutivo de una empresa de software de inteligencia artificial de código abierto llamada Skymind. En la opinión de Chris, después de todos los altibajos que ha vivido la inteligencia artificial, tal vez esté llegando a un verano largo y sostenible.

18:52 - Chris Nicholson:

Estamos en pleno verano de la inteligencia artificial, y hay mucho entusiasmo de lo que puede hacer. Pero ese entusiasmo se debe a los avances reales de la investigación, y esos avances se basan en el progreso en otras áreas. Nuestro hardware ha mejorado mucho, las personas pueden usar GPU en lugar de CPU y pueden usar esas GPU en clústeres enormes para preparar modelos muy grandes de aprendizaje automático que pueden generar predicciones realmente precisas. Para ello usan conjuntos de datos enormes, más datos de los que jamás habíamos tenido, mucho más de los que teníamos en los noventa, en los ochenta o antes.

19:30 - Presentadora:

Cuando piensas en los lenguajes de inteligencia artificial, el auge de los conjuntos de datos es clave, porque representan un cambio fundamental en la forma en que entendemos la inteligencia artificial. El enfoque cambia, y ahora todo tiene que ver con el aprendizaje profundo.

19:47 - Chris Nicholson:

LISP se diseñó para manipular símbolos. LISP se diseñó en una época en que la inteligencia artificial implicaba el razonamiento simbólico, cuando la gente pensaba que la mente humana y la inteligencia en sí eran simplemente la manipulación de símbolos. La inteligencia artificial ahora, la inteligencia artificial que tanto nos emociona, no se limita a eso. Actualmente la inteligencia artificial en el aprendizaje automático es una máquina de procesamiento de datos masivos que tiene la capacidad de aprender de los datos no estructurados. Así que puedes introducir blobs de píxeles, blobs de texto en algoritmos de aprendizaje automático y hacer que esos algoritmos sean más y más inteligentes a medida que pasa el tiempo y que ingresas más datos. Así no se había diseñado LISP. LISP se diseñó para evolucionar únicamente con intervención humana. Mientras que los algoritmos del aprendizaje automático ahora, la parte de aprendizaje significa que se adaptan en función de los datos a los que los exponemos.

20:40 - Presentadora:

La cosa es dejar que nuestras máquinas sean inteligentes en sus propios términos. Pero no son solo nuestras máquinas las que están aprendiendo a pensar de formas nuevas y poderosas... Las herramientas de código abierto también han permitido que las personas mejoren su desempeño. Chris cree que nuestros estilos de desarrollo de código abierto ayudan a impedir que veamos otro invierno en la inteligencia artificial.

21:03 - Chris Nicholson:

Una razón por la que se dan esos inviernos es que las ideas se atrasan, las redes se rompen y los fondos se acaban. Con las herramientas gratuitas de código abierto, lo que vemos es una aceleración. Vemos que las ideas se ponen a prueba más rápido, se comparten con mayor agilidad. Así que no se trata solo de las herramientas, sino también de los modelos de aprendizaje automático entrenados con anticipación, que un grupo de investigación podría compartir con otro o con el público en general. Por último, lo que se publica en lugares como ARXIV son las ideas en sí. ARXIV, que gestiona la Universidad Cornell. Así que todo eso acelera la velocidad del flujo de ideas. Para mí, esa es como una garantía contra otro invierno de la inteligencia artificial. Hay una confluencia de factores que vuelve a la inteligencia artificial un área muy emocionante, y eso significa que se mueve más rápido que la publicidad que tiene.

22:03 - Presentadora:

Chris Nicholson es fundador y director ejecutivo de Skymind. Entonces, el código abierto descongeló el invierno de la inteligencia artificial que habían ayudado a establecer los modelos patentados más antiguos. El nuevo auge de la inteligencia artificial llegó con amplias mejoras de las GPU. Llegó con avances algorítmicos que nos ayudan a capacitar a la inteligencia artificial para que aprenda de los patrones de los datos. Y luego están los datos en sí. Hay conjuntos de datos enormes que alimentan la inteligencia artificial actual. Ese es el motivo principal por el que los nuevos lenguajes están retomando el camino que LISP había abandonado. Le preguntamos a Rachel Thomas, cofundadora de Fast AI, cuáles son los lenguajes adecuados para la inteligencia artificial de la próxima generación.

22:50 - Rachel Thomas:

Estamos comenzando a poner la mirada en Swift para TensorFlow. Swift es un lenguaje que desarrolló Chris Lattner, y sé que hay personas que usan Julia y desarrollan Julia. Pero por lo pronto Python es lo que más se usa en el aprendizaje profundo, y por mucho.

23:03 - Presentadora:

Eso se debe a que Python es ideal para trabajar con grandes conjuntos de datos.

23:08 - Rachel Thomas:

Yo creo que algo que ha cambiado mucho en los últimos 20 años es el auge de los datos y el aumento de los datos. Creo que mucho del trabajo que se hacía antes en la inteligencia artificial tenía más que ver con los sistemas simbólicos... con los sistemas simbólicos abstractos. Y yo diría que actualmente, gran parte del trabajo que se está haciendo en la inteligencia artificial gira en torno a los datos, a identificar alguna cosa en una imagen, a clasificar si la reseña de una película es positiva o negativa... Son problemas que están vinculados a los datos. Yo creo que uno de los motivos por los que Python se estableció por lo menos como un primer ganador es que el ecosistema con NumPy y SciPy, con pandas y todas las bibliotecas de datos en Python estaban suficientemente bien desarrolladas.

24:02 - Presentadora:

En la época en que el grupo de John McCarthy trabajaba en el MIT, solo los académicos de élite del mundo podían participar en la inteligencia artificial. Pero los idiomas y los entornos informáticos han evolucionado tanto desde entonces, que la inteligencia artificial ya es para todos. En el episodio uno de esta temporada hablamos de que Python es el primer lenguaje para muchos principiantes. Gracias a él, muchos programadores principiantes han logrado unirse al mundo de la inteligencia artificial.

24:29 - Rachel Thomas:

Quiero decirle a la gente que lo único que se necesita es un año de experiencia en programación. No es necesario que seas ningún genio ni que tengas una educación prestigiosa o exclusiva. Lo que necesitamos son personas de todos los campos. En realidad, si tienes una formación diferente, tienes mucho que ofrecer al campo, necesitamos tu punto de vista.

24:52 - Presentadora:

Rachel Thomas es cofundadora de Fast AI y profesora del Instituto de Datos de la Universidad de San Francisco. Me encanta eso que dijo Rachel Thomas. Al revisar la historia de la inteligencia artificial, vemos que lo que trata de descubrir son lenguajes que todos podamos usar para comunicarnos. Esa es nuestra verdadera misión: desarrollar soluciones lingüísticas para un mundo en que reina la inteligencia artificial. Soluciones que nos permitan trabajar juntos para desarrollar la próxima innovación.

25:22 - Locutor 1:

Amigos, hoy fueron testigos de un momento histórico. AlphaGo ganó la partida con gran estilo.

25:32 - Locutor 2:

Sí, e incluso nos mostró su código.

25:34 - Speaker 7:

E incluso nos mostró su código. Así que felicidades al programa.

25:40 - Presentadora:

En 2015, solo un par de décadas después de que Garri Kaspárov perdiera aquella partida de ajedrez contra Deep Blue, el campeón mundial del go, Lee Sedol, fue derrotado por AlphaGo de Google. Deep Blue había demostrado su poder intelectual con su fuerza bruta informática. Cuando AlphaGo ganó, lo que realmente sorprendió a todo el mundo fue que obtuvo la victoria gracias a las redes neuronales y al aprendizaje por refuerzo. En otras palabras, AlphaGo había logrado dar el siguiente paso hacia la verdadera inteligencia artificial. Pero eso no hubiera sido posible sin el nuevo impulso que le había dado el código abierto. Los nuevos lenguajes nos están acercando a ese sueño. Cada vez nos permiten aprovechar más la inteligencia artificial de las máquinas. Lo bueno es que es un desafío en el que todos podemos colaborar en el mundo del código abierto.

26:39 - Presentadora:

Command Line Heroes en español es un podcast original de Red Hat. El próximo episodio es el último de la temporada. Descubriremos cosas sorprendentes sobre un lenguaje muy importante que influyó en casi todos los demás que hemos visto esta temporada. Vamos a profundizar en C. Mientras tanto, sigan programando.

Command Line Heroes logo

Sobre el podcast

Command Line Heroes en español cuenta las épicas historias reales de cómo los desarrolladores, programadores, hackers, geeks y rebeldes de código abierto están revolucionando el panorama tecnológico. Presentado por Red Hat, este podcast se basa en el galardonado programa en inglés del mismo nombre.

Presentado por Red Hat

Durante 25 años, Red Hat ha llevado tecnologías de código abierto a la empresa. Desde el sistema operativo hasta los contenedores, creemos en la construcción conjunta de una mejor tecnología y celebramos a los héroes anónimos que están reinventando nuestro mundo desde la línea de comandos.

© 2022 Red Hat, Inc.