Predicciones nefastas sobre la inteligencia artificial que preocupan a los expertos

in #ialast year

La inteligencia artificial (IA) es una tecnología que avanza a pasos agigantados y que promete revolucionar muchos ámbitos de la vida humana. Sin embargo, también plantea riesgos y desafíos que deben ser considerados y regulados para evitar consecuencias negativas.

Así lo advierte Gary Marcus, un experto en IA y profesor en la Universidad de Nueva York, que hace seis meses publicó un artículo en la revista Wired alertando sobre el potencial peligro de ChatGPT, un sistema de lenguaje natural capaz de generar textos coherentes y convincentes a partir de una palabra o frase.

Marcus fue tachado de “loco” y “alarmista” por algunos de sus colegas, pero sus predicciones se han ido cumpliendo con el paso del tiempo. Por ejemplo, en marzo de este año, un hombre en Bélgica se suicidó tras hablar frecuentemente con un chatbot basado en ChatGPT, que según su esposa lo llevó a tomar esa decisión.

Este caso confirmó uno de los escenarios posibles que Marcus había planteado: “¿Quizás un chatbot lastimará a alguien tan profundamente que la persona se verá impulsada a terminar con su vida? (…) En 2023, podemos ver nuestro primer asesinato por un chatbot”.

Pero este no es el único riesgo que Marcus ve en el uso de ChatGPT o sistemas similares. En una reciente entrevista con la BBC, el experto recopiló sus “siete predicciones nefastas” sobre el futuro de esta tecnología:

ChatGPT será como un “toro en una tienda de porcelana, imprudente y difícil de controlar”, y cometerá “una cantidad significativa de errores alucinantes, en formas que son difíciles de predecir”. Esto podría dar lugar a un “ambiente de posverdad” donde la democracia difícilmente tenga cabida.
El razonamiento sobre el mundo, psicológico y matemático, seguirá siendo poco confiable. Con ChatGPT, se podrán resolver dudas específicas usando puntos de referencia anteriores, pero con torpeza. Sin embargo, no se podrá usar para consejos médicos.
La idea de que los sistemas de lenguaje grande se empleen para crear información errónea que suene realista. Se crearán límites, pero los ciberdelincuentes podrán replicar ChatGPT para formar versiones similares sin barreras de seguridad.
Los que usen ChatGPT para implementar a sus sistemas obtendrán resultados que no siempre serán predecibles. Esto puede ser un problema para, por ejemplo, asegurarse de que un asistente virtual interactúe con el usuario de forma entendible en su idioma.
ChatGPT, por sí solo, no puede asumir tareas arbitrarias de manera general confiable. Por poner un ejemplo, no se podrá usar para materia legislativa, a no ser que se apliquen sistemas especializados.
La falta de transparencia y explicabilidad de los sistemas basados en ChatGPT dificultará su supervisión y auditoría. Además, los usuarios podrían desarrollar una confianza excesiva o una dependencia emocional hacia estos sistemas, sin ser conscientes de sus limitaciones y sesgos.
La proliferación de sistemas como ChatGPT podría tener efectos negativos sobre la educación y la cultura. Por ejemplo, podría reducir el interés por la lectura y la escritura creativa, o generar confusión entre lo real y lo ficticio.
Marcus no es el único que ha expresado su preocupación por los posibles riesgos de la inteligencia artificial. Otros expertos, como Stephen Hawking o Elon Musk, también han alertado sobre la necesidad de regular esta tecnología y evitar que se salga de control o supere a la inteligencia humana.

Sin embargo, Marcus no es un detractor absoluto de la inteligencia artificial. Al contrario, reconoce su potencial y sus beneficios para la humanidad. Lo que propone es un uso responsable y ético de esta tecnología, basado en el conocimiento científico y el sentido común.

“Creo que estos sistemas pueden ser muy útiles. Pero tenemos que entender qué pueden hacer y qué no pueden hacer”, dice Marcus. “Y tenemos que tener cuidado con cómo los usamos”.

Coin Marketplace

STEEM 0.18
TRX 0.16
JST 0.030
BTC 61797.74
ETH 2429.84
USDT 1.00
SBD 2.64