“...Debido a la IA, seremos borrados de la superficie de la Tierra el 1 de enero de 2030 (...) una vez que la IA se vuelva lo suficientemente inteligente como para aumentar su propia inteligencia, pasará a una inteligencia infinita en un instante y eso será todo para nosotros”.
Esa fue una apuesta que hizo el economista Bryan Caplan, de la Universidad George Mason en Virginia, con Eliezer Yudkowsky, a quien señaló como el hombre con la visión más pesimista y extremista sobre las IA, de acuerdo con una entrevista que le realizó el diario británico, The Guardian.
Caplan ha ganado un amplio reconocimiento ya que se a convertido en el hombre que ha acertado en sus diferentes apuestas sobre diferentes temas de interés general. Por ejemplo, atinó con sus pronósticos sobre las posibilidades electorales de Donald Trump en 2016 y hasta suele apostar contra predicciones que considera exageradas.
¿Por qué dice que la IA borrará a la humanidad?
Caplan apostó ahora USD 500 a que la inteligencia artificial integrada en ChatGPT (un sistema de IA capaz de responder a cualquier cosa) no era tan inteligente como se creía y que no podría aprobar el examen de mitad de período de 2022 de su clase de pregrado.
Aunque el ChatGPT original obtuvo una D en su prueba, apostó que “ninguna IA podría obtener A en 5 de 6 de mis exámenes para enero de 2029″. Sin embargo, en su blog reseñó que quedó sorprendido con la nueva versión del sistema, GPT-4, que obtuvo una A solo unos meses después, con una puntuación de 73/100. Si se tratara de un estudiante, habría sido la cuarta puntuación más alta de la clase.
Con ello, Caplan aseguró que probabilidades de ganar parecen escasas. Para él, resulta emocionante el futuro que nos espera con la IA. “Todo progreso es malo para alguien (...) La regla general es que cualquier cosa que aumente la producción humana es buena para el nivel de vida humano”, declaró al medio.
Su otra apuesta
Caplan apostó con Yudkowsky sobre la IA. Cree que primero va a funcionar y luego nos va a acabar. “Si te preguntas cómo es posible que hagas una apuesta como esa, cuando eres uno de las personas que va a ser aniquilada, la respuesta es que le pagué por adelantado. Solo le di el dinero por adelantado y luego, si el mundo no se acaba, me lo debe”.
De forma modesta, Caplan destaca que el tipo de apuestas que despiertan su interés son aquellas en las que alguien parece estar haciendo afirmaciones exageradas, “fingiendo tener mucha más confianza en el futuro de lo que creo que podría tener”. Hasta ahora, le ha servido tanto que de las 23 apuestas que se han concretado ha ganado las 23.
“Tuve muchos otros casos de personas que me dijeron lo genial que era la IA, y luego lo comprobé por mí mismo y claramente estaban exagerando mucho”, sostuvo al rotativo.
Entonces subraya que GPT-4 avanzó mucho más rápido de lo que él esperaba. Creo que eso significa que los efectos económicos serán mucho mayores antes de lo que esperaba. “Como esperaba muy poco efecto, podría ser 10 veces más grande de lo que pensé que sería y aun así no ser enorme”. Debido a eso, se ha replanteado su punto de vista sobre el tema.