Geoffrey Hinton, uno de los nombres más importantes en el sector de la Inteligencia Artificial, expresó sus preocupaciones en torno a esta tecnología y los riegos asociados a su uso y desarrollo.
Los peligros de la IA según Geoffrey Hinton
Geoffrey Hinton, uno de los pioneros en el desarrollo de la inteligencia artificial (IA), ha expresado su preocupación sobre los riesgos que conlleva esta tecnología. Hinton, quien ha trabajado en Google y ha sido galardonado con el Premio Turing y el Princesa de Asturias de Investigación Científica y Técnica, ha instado a frenar los avances en IA hasta que se pueda garantizar su control. En este artículo, analizamos sus preocupaciones y reflexionamos sobre la importancia de un enfoque cauteloso en el desarrollo de la inteligencia artificial.
Los desafíos éticos y sociales de la inteligencia artificial
Desinformación y manipulación: uno de los principales temores de Hinton es que la IA pueda inundar internet con información falsa o manipulada. La proliferación de deepfakes y otros tipos de contenidos generados por IA dificulta discernir qué es real y qué no, lo que podría socavar la confianza en los medios de comunicación y la democracia.
Desplazamiento laboral: la IA también amenaza con reemplazar a numerosos trabajadores en diversas industrias. Aunque algunos argumentan que la tecnología podría generar nuevos empleos, Hinton advierte que el desplazamiento laboral masivo podría tener consecuencias económicas y sociales negativas.
El potencial incontrolable de la IA generativa
Hinton destaca el riesgo que suponen las inteligencias artificiales generativas, como GPT-4, capaces de crear contenidos cada vez más sofisticados y creíbles. Según Hinton, la velocidad a la que avanza esta tecnología hace que sea difícil predecir y controlar sus efectos a largo plazo. La falta de entendimiento y control sobre estas IA puede tener consecuencias graves para la sociedad y la humanidad en su conjunto.
El también conocido como “padrino” de la IA, Hinton aseguró que a sus 75 años lamenta ahora haber dedicado su carrera a este sector. “Me consuelo con la excusa normal: si no lo hubiera hecho yo, lo habría hecho alguien más”, dijo el informático británico de 75 años, en una entrevista publicada este lunes por el diario estadounidense The New York Times.
Hilton tomó entonces la decisión de abandonar su trabajo en Google para poder compartir sus preocupaciones sin que existieran conflictos de intereses con la empresa. El desarrollador mencionó que esta podría ser una tecnología que funcione mejor que el cerebro humano y que nadie tiene garantías de cómo podrá mantenerse bajo control.
“No creo que deban ampliar esto más hasta que hayan entendido si pueden controlarlo”, dijo Hinton.
Estas preocupaciones de Hinton, van en línea con la opinión de otros expertos tecnológicos, quienes han solicitado una moratoria en el desarrollo de la IA, especialmente en sistemas más poderosos que GPT-4. Esta propuesta busca detener temporalmente el desarrollo y las pruebas de estas tecnologías, permitiendo tiempo para reflexionar sobre sus consecuencias y cómo pueden controlarse.
Más tarde, Hinton aclaró mediante un tuit, que no dejó su puesto en Google para poder criticar a la empresa, sino para poder hablar libremente sobre sus preocupaciones sin tener que preocuparse por el impacto de sus palabras en la compañía, que por cierto, en su opinión “ha actuado de forma muy responsable” frente a estas tecnologías. Recordémoos que a pesar de que Google ya está desarrollando sus propios modelos de Inteligencia artificial, han sido muy precavidos en la publicación de los mismos, pues sólo unos pocos han tenido acceso.
¿La solución?
Bueno, nos hemos dado a la tarea de plantearle toda esta situación a ChatGPT y de hecho, el modelo tiene algunas advertencias o posibles soluciones que valdría la pena leer, te las dejamos a continuación:
Desarrollo responsable: es crucial que las empresas y los investigadores involucrados en el desarrollo de IA adopten un enfoque cauteloso y responsable. Esto implica tener en cuenta los riesgos y consecuencias potenciales de la tecnología y trabajar para mitigarlos.
Colaboración entre sectores: para abordar los desafíos éticos y sociales de la IA, es necesario fomentar la colaboración entre gobiernos, empresas, académicos y la sociedad civil. Estos actores pueden trabajar juntos para desarrollar regulaciones, estándares y prácticas que garanticen el uso seguro y beneficioso de la IA.
Educación y concienciación pública: es fundamental educar al público sobre los riesgos y beneficios de la inteligencia artificial. Esta concienciación permitirá a las personas tomar decisiones informadas sobre cómo interactuar con la tecnología y cómo desean que se utilice en su vida cotidiana.
Transparencia en el desarrollo de IA: para garantizar que la inteligencia artificial se utilice de manera ética y responsable, es esencial que las empresas sean transparentes sobre sus métodos de desarrollo y las medidas que están tomando para abordar los riesgos asociados. Esto incluye divulgar información sobre algoritmos, prácticas de entrenamiento de modelos y estándares de seguridad.
Supervisión y regulación gubernamental: los gobiernos desempeñan un papel clave en la supervisión y regulación de la IA. Deben establecer leyes y regulaciones adecuadas para garantizar que la tecnología se utilice de manera ética y responsable y que no se abuse de ella con fines nefastos. Además, es necesario contar con organismos de supervisión independientes que puedan evaluar y garantizar el cumplimiento de estas regulaciones.
Fomentar la innovación sin sacrificar la seguridad y la ética: es importante reconocer que, aunque la inteligencia artificial presenta desafíos y riesgos significativos, también tiene el potencial de mejorar nuestras vidas en muchos aspectos. Por lo tanto, es crucial encontrar un equilibrio entre impulsar la innovación y garantizar la seguridad y la ética en el desarrollo y uso de la IA.
Desarrollo de IA centrado en el ser humano: en lugar de centrarse únicamente en la creación de IA más potente y sofisticada, los investigadores y las empresas deben priorizar el desarrollo de tecnologías que tengan un impacto positivo en la vida de las personas y aborden los desafíos sociales y ambientales.
Abordar los riesgos de la inteligencia artificial de manera responsable
Las preocupaciones expresadas por Geoffrey Hinton y otros expertos en inteligencia artificial subrayan la importancia de abordar los riesgos y desafíos que plantea esta tecnología de manera responsable y cautelosa. Para garantizar que la IA se desarrolle y se utilice de manera beneficiosa y ética, es fundamental fomentar la colaboración entre sectores, promover la transparencia y la supervisión y equilibrar la innovación con la seguridad y la ética. Solo así podremos aprovechar el potencial de la inteligencia artificial sin poner en riesgo nuestra sociedad y nuestro futuro. ¿Qué te parece? ¿Cuál postura deberíamos tomar?
También te podría interesar: Spotify lanza la función “DJ” impulsada por inteligencia artificial utilizando tecnología de OpenAI