¿Es peligrosa la inteligencia artificial (IA)?


El lunes 22 de mayo de 2023, una cuenta verificada de Twitter llamada “Bloomberg Feed” compartió un tweet afirmando que había habido un explosión en el pentágono, acompañado de una imagen. Si se pregunta qué tiene esto que ver con la inteligencia artificial (IA), la imagen fue generada por IA, y el tweet rápidamente se volvió viral y provocó una breve caída en el mercado de valores. Las cosas podrían haber sido mucho peores: un claro recordatorio de los peligros de la inteligencia artificial.

Peligros de la inteligencia artificial

No sólo debemos preocuparnos por las noticias falsas. Hay muchos riesgos inmediatos o potenciales asociados con la IA, desde aquellos relacionados con la privacidad y la seguridad hasta cuestiones de prejuicios y derechos de autor. Analizaremos algunos de estos peligros de la inteligencia artificial, veremos qué se está haciendo para mitigarlos ahora y en el futuro y nos preguntaremos si los riesgos de la IA superan los beneficios.

Noticias falsas

Cuando aparecieron por primera vez los deepfakes, surgió la preocupación de que pudieran usarse con malas intenciones. Lo mismo podría decirse de la nueva ola de Generadores de imágenes de IA, como DALL-E 2, Midjourney o DreamStudio. El 28 de marzo de 2023, un Imágenes del Papa Francisco generadas por IA falso con una chaqueta acolchada blanca de Balenciaga y disfrutando de varias aventuras, entre ellas andar en patineta y jugar al póquer, se volvió viral. A menos que estudiaras las imágenes de cerca, era difícil distinguirlas de la realidad.

Si bien el ejemplo con el Papa fue sin duda un poco divertido, la imagen (y el tweet que la acompaña) sobre el Pentágono fue todo lo contrario. Las imágenes falsas generadas por IA tienen el poder de dañar reputaciones, poner fin a matrimonios o carreras, crear malestar político e incluso iniciar guerras si las manejan las personas equivocadas; en resumen, estas imágenes generadas por IA tienen el potencial de ser enormemente peligrosas si se usan indebidamente.

Con los generadores de imágenes de IA ahora disponibles gratuitamente para que cualquiera los use, y Photoshop agrega un generador de imágenes AI con su popular software, la oportunidad de manipular imágenes y crear noticias falsas es mayor que nunca.

Privacidad, seguridad y piratería

La privacidad y la seguridad también son grandes preocupaciones cuando se trata de los riesgos de la IA, y varios países ya prohíben ChatGPT de OpenAI. Italia ha prohibido el modelo debido a preocupaciones de privacidad, creyendo que no cumple con el Reglamento General Europeo de Protección de Datos (GDPR), mientras que los gobiernos de China, Corea del Norte y Rusia lo prohibieron por temor a que difunda información errónea..

Entonces, ¿por qué nos preocupa tanto la privacidad cuando se trata de IA? aplicaciones de inteligencia artificial y los sistemas recopilan grandes cantidades de datos para aprender y hacer predicciones. Pero, ¿cómo se almacenan y procesan estos datos? Existe un riesgo real de que se produzcan filtraciones de datos, piratería informática y que la información caiga en manos equivocadas.

Tampoco son solo nuestros datos personales los que están en riesgo. La piratería de la IA es un riesgo genuino; aún no ha sucedido, pero si personas con intenciones maliciosas pudieran piratear los sistemas de IA, esto podría tener graves consecuencias. Por ejemplo, los piratas informáticos podrían controlar vehículos sin conductor, piratear sistemas de seguridad de inteligencia artificial para acceder a ubicaciones altamente seguras e incluso piratear sistemas de armas con seguridad de inteligencia artificial.

Los expertos de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) del Departamento de Defensa de EE. UU. reconocen estos riesgos y ya están trabajando en el proyecto Garantizar la robustez de la IA contra el engaño (GARD) de DARPA, abordando el problema desde cero. El objetivo del proyecto es garantizar que la resistencia a la piratería y la manipulación esté integrada en los algoritmos y la IA.

Infracción de derechos de autor

Otro de los peligros de la IA es la infracción de derechos de autor. Puede que esto no parezca tan grave como otros peligros que hemos mencionado, pero el desarrollo de modelos de IA como GPT-4 pone a todos en mayor riesgo de infracción.

Cada vez que le pides a ChatGPT que cree algo para ti, ya sea una publicación de blog sobre viajes o un nuevo nombre para tu empresa, le estás proporcionando información que luego utiliza para responder consultas futuras. La información que le proporciona podría estar infringiendo los derechos de autor de otra persona, por lo que es tan importante utilizar un detector de plagio y editar cualquier contenido creado por IA antes de publicarlo.

Sesgo social y de datos

La IA no es humana, por lo que no puede estar sesgada, ¿verdad? Equivocado. Las personas y los datos se utilizan para entrenar modelos de IA y chatbots, lo que significa que datos o personalidades sesgados darán como resultado una IA sesgada. Hay dos tipos de sesgo en la IA: sesgo social y sesgo de datos.

Con muchos prejuicios presentes en la sociedad cotidiana, ¿qué sucede cuando estos sesgos pasan a formar parte de la IA? Los programadores responsables de entrenar el modelo podrían tener expectativas sesgadas que luego llegarían a los sistemas de IA..

O los datos utilizados para entrenar y desarrollar una IA podrían ser incorrectos, estar sesgados o recopilarse de mala fe. Esto conduce a un sesgo en los datos, que puede ser tan peligroso como el sesgo social. Por ejemplo, si un sistema de reconocimiento facial se entrena utilizando principalmente rostros de personas blancas, puede tener dificultades para reconocer a aquellos que pertenecen a grupos minoritarios, perpetuando la opresión.

Robots tomando nuestros trabajos

El desarrollo de chatbots como ChatGPT y Google Bard ha generado una preocupación completamente nueva en torno a la IA: el riesgo de que robots nos quite el trabajo. Ya estamos viendo escritores en la industria tecnológica siendo reemplazados por IA, desarrolladores de software preocupados de perder sus trabajos a manos de bots y empresas que utilizan ChatGPT para crear contenido de blogs y redes sociales en lugar de contratar escritores humanos.

Según Informe sobre el futuro del empleo 2020 del Foro Económico Mundial, se espera que la IA reemplace 85 millones de puestos de trabajo en todo el mundo para 2025. Incluso si la IA no reemplaza a los escritores, muchos ya la están utilizando como herramienta. Aquellos en trabajos en riesgo de ser reemplazados por la IA pueden necesitar adaptarse para sobrevivir; por ejemplo, los escritores pueden convertirse en ingenieros de IA, lo que les permitirá trabajar con herramientas como ChatGPT para la creación de contenido en lugar de ser reemplazados por estos modelos.

Riesgos potenciales futuros de la IA

Todos estos son riesgos inmediatos o inminentes, pero ¿qué pasa con algunos de los peligros menos probables pero aún posibles de la IA que podríamos ver en el futuro? Estos incluyen cosas como la IA programada para dañar a los humanos, por ejemplo, armas autónomas entrenadas para matar durante una guerra.

Luego existe el riesgo de que la IA pueda centrarse exclusivamente en su objetivo programado, desarrollando comportamientos destructivos mientras intenta lograr ese objetivo a toda costa, incluso cuando los humanos intentan evitar que esto suceda.

Skynet nos enseñó lo que sucede cuando una IA se vuelve sensible. Sin embargo, aunque el ingeniero de Google, Blake Lemoine, haya intentado convencer a todo el mundo de que LaMDA, el generador de chatbot artificialmente inteligente de Google, era sensible allá por junio de 2022, afortunadamente hasta la fecha no hay pruebas que sugieran que eso sea cierto.

Los desafíos de la regulación de la IA

El lunes 15 de mayo de 202, El director ejecutivo de OpenAI, Sam Altman, asistió a la primera audiencia del Congreso sobre inteligencia artificial, advirtió: "Si esta tecnología sale mal, puede salir bastante mal". El CO de OpenAI dejó en claro que está a favor de la regulación y aportó muchas de sus propias ideas a la audiencia. El problema es que la IA está evolucionando a tal velocidad que es difícil saber por dónde empezar con la regulación..

El Congreso quiere evitar cometer los mismos errores cometidos al comienzo de la era de las redes sociales, y un equipo de expertos junto con el líder de la mayoría del Senado, Chuck Schumer, ya están trabajando en regulaciones que requerirían que las empresas revelen qué fuentes de datos utilizaron para capacitar. modelos y quién los entrenó. Sin embargo, puede pasar algún tiempo antes de que quede claro exactamente cómo se regulará la IA, y sin duda habrá una reacción violenta por parte de las empresas de IA.

La amenaza de una inteligencia general artificial

También existe el riesgo de la creación de una inteligencia artificial general (AGI) que podría realizar cualquier tarea que un ser humano (o animal) pudiera realizar. Mencionado a menudo en las películas de ciencia ficción, probablemente todavía estemos a décadas de tal creación, pero si creamos un AGI, podría representar una amenaza para la humanidad.

Muchas figuras públicas ya respaldan la creencia de que la IA representa una amenaza existencial para los humanos, incluidos Stephen Hawking, Bill Gates e incluso el ex director ejecutivo de Google, Eric Schmidt, quien afirmó: "La inteligencia artificial podría plantear riesgos existenciales y los gobiernos deben saber cómo hacerlo". para asegurarnos de que personas malvadas no hagan un mal uso de la tecnología”.

Entonces, ¿es peligrosa la inteligencia artificial? ¿Su riesgo supera sus beneficios? Aún no hay consenso sobre ese tema, pero ya estamos viendo evidencia de algunos de los riesgos que nos rodean en este momento. Es menos probable que otros peligros se hagan realidad en el corto plazo, si es que se materializan. Sin embargo, una cosa está clara: no se deben subestimar los peligros de la IA. Es de suma importancia que nos aseguremos de que la IA esté regulada adecuadamente desde el principio, para minimizar y, con suerte, mitigar cualquier riesgo futuro.

.

Artículos Relacionados:


31.05.2023