Una carta abierta firmada por Elon Musk y otros expertos advierte sobre el potencial riesgo que la Inteligencia Artificial (IA) representa para la humanidad.
La Inteligencia Artificial ha cautivado todos los titulares en los últimos meses. Gran parte de la industria tecnológica se ha enfocado en ChatGPT, desarrollado por OpenIA, una inteligencia capaz de conversar sobre diversos temas, responder a preguntas complejas y escribir de forma creativa.
Pero, a pesar de la revolución que ha causado su llegada en el sector tecnológico, un grupo de importantes expertos están advirtiendo sobre los riesgos que las inteligencias artificiales pueden representar tanto para la sociedad como para la humanidad.
Elon Musk, junto a Steve Wozniak, Chris Larsen, Andrew Yang y otras 1.300 personas, han firmado una carta abierta para hacer un llamado a los laboratorios de innovación a pausar el desarrollo de nuevas inteligencias artificiales por un periodo de al menos 6 meses. El llamado busca dar tiempo al desarrollo de protocolos de seguridad que permitan gestionar los posibles riesgos.
En los últimos meses, los laboratorios de innovación han estado en una especie de competencia para desarrollar las inteligencias artificiales más poderosas. Sin embargo, según los expertos, como esto ha ocurrido de manera apresurada ni los mismos laboratorios que han desarrollado estas mentes digitales son capaces de entenderlas ni de gestionarlas de manera segura y confiable.
Elon Musk recomienda tener cuidado con la Inteligencia Artificial
La petición de los expertos tecnológicos está enfocada en GPT-4, la última implementación del chatbot desarrollado por OpenIA, que se considera la IA más potente en la actualidad.
En Twitter, el multimillonario propietario de Tesla, SpaceX y Twitter, señaló que es posible que los desarrolladores de IA no presten atención a la advertencia actual. “Pero al menos se dijo”, manifestó. A finales de febrero, Musk había comentado que se sentía con un poco de angustia existencial por la IA.
Según los informes, algunas inteligencias artificiales actuales quieren asumir el comportamiento de una persona y sentir como ella, por lo que es posible que también puedan convertirse en un criminal y sustraer, por ejemplo, códigos nucleares. Ante el riesgo, los expertos señalan la necesidad de pausar su desarrollo y de crear sistemas de seguridad que garanticen la transparencia y la confianza.
En la carta, los expertos también hacen un llamado a los gobiernos a tomar acción si los laboratorios de innovación hacen caso omiso y continúan desarrollando la IA.
Los riesgos de la IA para la identidad
Por otra parte, el director ejecutivo de Galaxy Digital, Mike Novogratz, manifestó que es una sorpresa la cantidad de regulaciones que países como Estados Unidos están imponiendo a la industria de las criptomonedas comparadas con las regulaciones actuales a la Inteligencia Artificial.
Según Novogratz, esta última sí representa un riesgo, ya que se trata de un avance tecnológico que puede originar un problema de identidad.
Novogratz expresó su desconcierto por la atención que ha dirigido el gobierno de Estados Unidos a las criptomonedas en lugar de a la Inteligencia Artificial, señalando cómo la IA puede convertirse en el desencadenante de una identidad falsa en el mundo.
Desde distintas perspectivas, tener un avatar que pueda utilizar las criptomonedas por medio de la IA permitirá crear un personaje increíblemente realista, cuya identidad no podrá ser verificada cuando la IA se apodere del mundo, manifestó Novogratz durante una conferencia telefónica con sus inversores.
El CEO de Galaxy Digital también dijo que es posible crear un vídeo o una grabación falsa sin que nadie note que se trata de una IA.
Las falsificaciones son un problema cada vez más difícil de detectar, por lo que es una preocupación real, dijo Novogratz, destacando que tanto las empresas como las personas pueden padecer las consecuencias de esto.
Por último, el fundador y CEO de MercadoLibre, Marcos Galperin, señaló varios errores al consultar a GPT-4 sobre su identidad. Galperin compartió en Twitter las respuestas de la IA e indicó que la mayoría estuvo equivocada.
“Según ChatGPT 4, trabajé en Boston Consulting Group, fui director de Aerolineas Argentinas y Globant… Cuando le comenté que estos eran todos errores, dijo que fui director del Banco Comafi (también equivocado)”, comentó Galperin.
Con esto, el CEO de MercadoLibre destacó otro de los riesgos de la IA. “El problema es que excepto la gente que me conoce muy bien, muy pocos sabrían reconocer los errores de lo correcto en lo que dijo de mí. Cuando le consultamos por temas que no somos expertos y que son importantes, como temas de salud, estas alucinaciones pueden ser muy peligrosas”.
Continúa leyendo: ¿Qué podemos esperar de la Inteligencia Artificial?