RT El ex director ejecutivo de Google, Eric Schmidt, afirmó que la inteligencia artificial (IA) podría plantear riesgos existenciales y que los gobiernos deben garantizar que la tecnología no sea usada indebidamente por “personas malvadas”, recoge CNBC.
Durante la Cumbre del Consejo de Directores Ejecutivos organizada por The Wall Street Journal en Londres esta semana, Schmidt manifestó su preocupación sobre el auge de la IA, argumentando que representa un “riesgo existencial”, concepto que “se define como muchas, muchas, muchas, muchas personas dañadas o muertas”.
Entre los posibles escenarios de riesgo, advirtió que estos sistemas podrían ser capaces en un futuro de “encontrar ‘exploits’ de día cero” –vulnerabilidades de ciberseguridad que utilizan los ‘hackers’ para realizar sus ataques– o “descubrir nuevas formas de biología”. En ese sentido, defendió que es imperativo tener las herramientas necesarias para hacer frente a este tipo de peligros.
“Esto es ficción hoy en día, pero es probable que el razonamiento sea cierto. Y cuando eso suceda, queremos estar preparados para saber cómo asegurarnos de que estas cosas no sean mal empleadas por personas malvadas”, señaló Schmidt, quien dirigió Google de 2001 a 2011.
La IA representa un riesgo existencial, concepto que se define como muchas, muchas, muchas, muchas personas dañadas o muertas
Las declaraciones se producen en un momento en el que la IA se ha convertido en el centro de las conversaciones entre tecnólogos y gobiernos, que enfrentan el desafío de cómo se desarrollará esta tecnología en el futuro y la forma en que debe ser regulada. En este contexto, el empresario estadounidense dijo que no tiene una visión clara de cómo se debería regular, pero acentuó que se trata de una “cuestión más amplia para la sociedad”. Asimismo, consideró poco probable que se establezca una agencia reguladora específica en EE.UU.
Una lista de advertencias que aumenta
Schmidt no es la primera personalidad relevante en alertar sobre los riesgos de la IA. El magnate Elon Musk advirtió en abril pasado sobre el impacto negativo que la tecnología podría tener en la humanidad, afirmando que tiene el “potencial” para “destruir la civilización”.
A fines de marzo, Musk, el cofundador de Apple, Steve Wozniak, y un millar de expertos tecnológicos firmaron una carta instando a los laboratorios de IA a “pausar inmediatamente” el entrenamiento de los sistemas de IA más potentes que el GPT-4, la nueva versión del controversial ChatGPT, que “exhibe un rendimiento a nivel humano en varios puntos de referencia académicos y profesionales”.
Asimismo, Sam Altman, CEO de la desarrolladora OpenAI y autor del ChatGPT, admitió que estaba “un poco asustado” por haber creado la herramienta, agregando que se encontraba “particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala”.
Por su parte, Sundar Pichai, director ejecutivo Alphabet, la empresa matriz de Google, a pesar de haber lanzado lanzado recientemente el chatbot Bard, admitió que no “entiende completamente” cómo funciona y aseguró que la IA “puede ser muy perjudicial si se implementa incorrectamente”.