Desafíos de la Inteligencia Artificial generativa
Tres escalas y dos enfoques transversales
DOI:
https://doi.org/10.24215/16696581e844Palabras clave:
Inteligencia Artificial, Inteligencia Artificial generativa, riesgos y seguridad de la IA, sociedad artificialResumen
El objetivo de este artículo es ofrecer una perspectiva analítica para comprender y situar en su dimensión específica los diferentes debates que atraviesan la conversación pública sobre las Inteligencias Artificiales generativas y los modelos de lenguaje grandes (LLM, por sus siglas en inglés). En primer lugar, identificamos cinco rasgos de las IA: no son una tecnología, sino que se trata de metatecnologías; constituyen no un dispositivo técnico, sino un mundoambiente; pueden ser tecnologías de alto riesgo y requieren de un tratamiento acorde en su ciclo de vida; las IA generativas y en particular los LLM no son sólo Inteligencia Artificial, sino también Sociedad Artificial; la perspectiva de la ética de la IA no es suficiente para abordarlas y es preciso promover un enfoque desde la ética organizacional de la IA y desde el pensamiento sistémico. En segundo lugar, recortamos las distintas escalas en las que actualmente se desarrollan las IA: la escala micro, la escala meso (la más propia para situar las políticas públicas) y la escala macro. En tercer lugar, presentamos dos enfoques transversales para el abordaje de las IA: el jurídico, orientado a la responsabilidad, y el sistémico, orientado a la protección y a la seguridad.
Descargas
Citas
Agrawal, A.K.; McHale, J.; y Oettl, A. (2018). “Finding needles in haystacks: Artificial Intelligence and recombinant growth”. Nber Working Paper Series, 24541.
Albrieu, R. et al. (2018). Inteligencia artificial y crecimiento económico. Oportunidades y desafíos para Argentina, Buenos Aires: Cippec.
Arenas, M.; Arriagada, G.; Mendoza, M.; Prieto, C. (2020). Una breve mirada al estado actual de la Inteligencia
Artificial, Pontificia Universidad Católica de Chile, 2020. En Internet: https://desarrollodocente.uc.cl/wp-content/uploads/2020/09/Una-breve-mirada-al-estado-actual-de-la-Inteligencia-Artificial.pdf.
Bostrom, N. (2016 [2014]). Superinteligencia. Caminos, peligros, estrategias, España: Teell.
Bowman, S.R. (2023). “Eight Things to Know about Large Language Models”. Cornell University. Recuperado de arxiv.org/abs/2304.00612
Center for AI Safety (s/f). Center for AI Safety, “An Overview of Catastrophic AI Risks”. Recuperado de safe.ai/ai-risk.
Costa, F. (2021). Tecnoceno. Algoritmos, biohackers y nuevas formas de vida, Buenos Aires: Taurus.
Covello, A (2021). Investigación sistémica de accidentes. Modelo para el transporte y la gestión de riesgo en sistemas complejos, CABA: Ediciones Ciccus.
Crawford, K. (2022). Atlas de inteligencia artificial. Poder, política y costos planetarios, Buenos Aires: Fondo de Cultura Económica.
Feenberg, A.(2002). Transforming Technology: A critical theory revisited, Nueva York: Oxford University Press.
Floridi, L. (2011). “Energy, Risks, and Metatechnology”. SRRN. Recuperado de ssrn.com/abstract=3854445
Gómez Mont, C. et al. (2020). La Inteligencia Artificial al servicio del bien social en América Latina y el Caribe: panorámica regional e instantáneas de doce países. Banco Interamericano de Desarrollo.
Hendrycks D.; Mazeika M.; y Woodside T. (2023). An Overview of Catastrophic AI Risks. s/d. Recuperado de arxiv.org/pdf/2306.12001.pdf
HM Government (2023). Safety and Security Risks of Generative Artificial Intelligence to 2025, Reino Unido: Gobierno del Reino Unido.
Keen, M. (2023). How Large Language Models Work [archivo de video]. Recuperado de
https://www.youtube.com/watch?v=5sLYAQS9sWQ
Kurzweil, R. ([2005] 2012). La Singularidad está cerca. Cuando los humanos transcendamos la biología, Berlín: Lola Books.
Mittelstadt, B. (2019). “Principles alone cannot guarantee ethical AI”. Nat Mach Intell, 1, 501–507.
OCDE (2019a). Artificial Intelligence in Society. doi.org/10.1787/eedfee77-en
OCDE (2019b). Recommendation of the Council on Artificial Intelligence. OECD. Recuperado de oecd.ai/en/assets/files/OECD-LEGAL-0449-en.pdf
Subsecretaría de Tecnologías de la Información (2023). Recomendaciones para una inteligencia artificial fiable. Buenos Aires.
Trollip, A. (2021). “Unfolding AI’s Potential: How Investing in Research and Development Can Produce New Knowledge”. Bipartisan Policy Center. Recuperado de bipartisanpolicy.org/blog/unfolding-ais-potential/
Unesco (2022). Recomendación sobre la ética de la inteligencia artificial. París: Unesco. Recuperado de unesdoc.unesco.org/ark:/48223/pf0000381137_spa
Vercelli, A. (2023). “Las inteligencias artificiales y sus regulaciones: pasos iniciales en Argentina, aspectos analíticos y defensa de los intereses nacionales”. Revista de la Escuela del Cuerpo de Abogados y Abogadas del Estado, 7(9), 195-217.
Zuboff, S. (2020). La era del capitalismo de la vigilancia, Barcelona: Paidós.
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
La aceptación de un original por parte de la revista implica la cesión no exclusiva de los derechos patrimoniales de los/as autores/as en favor del editor, quien permite la reutilización, luego de su edición (postprint), bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)
Acorde a estos términos, el material se puede compartir (copiar y redistribuir en cualquier medio o formato) y adaptar (remezclar, transformar y crear a partir del material otra obra), siempre que a) se cite la autoría y la fuente original de su publicación (revista y URL de la obra), b) no se use para fines comerciales y c) se mantengan los mismos términos de la licencia.
La cesión de derechos no exclusivos implica que luego de su edición (postprint) en Question las/os autoras/es pueden publicar su trabajo en cualquier idioma, medio y formato; en tales casos, se solicita que se consigne que el material fue publicado originalmente en esta revista.
Tal cesión supone, también, la autorización de los/as autores/as para que el trabajo sea cosechado por SEDICI, el repositorio institucional de la Universidad Nacional de La Plata, y sea difundido en las bases de datos que el equipo editorial considere adecuadas para incrementar la visibilidad de la publicación y de sus autores/as.
Asimismo, la revista incentiva a las/os autoras/es para que luego de su publicación en Question depositen sus producciones en otros repositorios institucionales y temáticos, bajo el principio de que ofrecer a la sociedad la producción científica y académica sin restricciones contribuye a un mayor intercambio del conocimiento global.