Desafios da Inteligência Artificial Gerativa
Três escalas e duas abordagens transversais
DOI:
https://doi.org/10.24215/16696581e844Palavras-chave:
Inteligência artificial, Riscos e segurança da IA, Inteligência Artificial Gerativa, sociedade artificialResumo
The objective of this article is to offer an analytical perspective to understand and situate in their specific dimension the different debates that cross the public conversation about generative Artificial Intelligences and large language models (LLM). First, we identify five traits of AI: they are not a technology, but rather meta-technologies; They constitute not a technical device, but a world-environment; They can be high-risk technologies and require appropriate treatment in their life cycle; Generative AI and in particular LLM are not only Artificial Intelligence, but also Artificial Society; The perspective of AI ethics is not sufficient to address them and it is necessary to promote an approach from the organizational ethics of AI and from systemic thinking. Secondly, we cut out the different scales at which AI is currently developed: the micro scale, the meso scale (the most suitable for situating public policies) and the macro scale. Thirdly, we present two transversal approaches to addressing AI: the legal one, oriented towards responsibility, and the systemic one, oriented towards protection and security.
Downloads
Referências
Agrawal, A.K.; McHale, J.; y Oettl, A. (2018). “Finding needles in haystacks: Artificial Intelligence and recombinant growth”. Nber Working Paper Series, 24541.
Albrieu, R. et al. (2018). Inteligencia artificial y crecimiento económico. Oportunidades y desafíos para Argentina, Buenos Aires: Cippec.
Arenas, M.; Arriagada, G.; Mendoza, M.; Prieto, C. (2020). Una breve mirada al estado actual de la Inteligencia
Artificial, Pontificia Universidad Católica de Chile, 2020. En Internet: https://desarrollodocente.uc.cl/wp-content/uploads/2020/09/Una-breve-mirada-al-estado-actual-de-la-Inteligencia-Artificial.pdf.
Bostrom, N. (2016 [2014]). Superinteligencia. Caminos, peligros, estrategias, España: Teell.
Bowman, S.R. (2023). “Eight Things to Know about Large Language Models”. Cornell University. Recuperado de arxiv.org/abs/2304.00612
Center for AI Safety (s/f). Center for AI Safety, “An Overview of Catastrophic AI Risks”. Recuperado de safe.ai/ai-risk.
Costa, F. (2021). Tecnoceno. Algoritmos, biohackers y nuevas formas de vida, Buenos Aires: Taurus.
Covello, A (2021). Investigación sistémica de accidentes. Modelo para el transporte y la gestión de riesgo en sistemas complejos, CABA: Ediciones Ciccus.
Crawford, K. (2022). Atlas de inteligencia artificial. Poder, política y costos planetarios, Buenos Aires: Fondo de Cultura Económica.
Feenberg, A.(2002). Transforming Technology: A critical theory revisited, Nueva York: Oxford University Press.
Floridi, L. (2011). “Energy, Risks, and Metatechnology”. SRRN. Recuperado de ssrn.com/abstract=3854445
Gómez Mont, C. et al. (2020). La Inteligencia Artificial al servicio del bien social en América Latina y el Caribe: panorámica regional e instantáneas de doce países. Banco Interamericano de Desarrollo.
Hendrycks D.; Mazeika M.; y Woodside T. (2023). An Overview of Catastrophic AI Risks. s/d. Recuperado de arxiv.org/pdf/2306.12001.pdf
HM Government (2023). Safety and Security Risks of Generative Artificial Intelligence to 2025, Reino Unido: Gobierno del Reino Unido.
Keen, M. (2023). How Large Language Models Work [archivo de video]. Recuperado de
https://www.youtube.com/watch?v=5sLYAQS9sWQ
Kurzweil, R. ([2005] 2012). La Singularidad está cerca. Cuando los humanos transcendamos la biología, Berlín: Lola Books.
Mittelstadt, B. (2019). “Principles alone cannot guarantee ethical AI”. Nat Mach Intell, 1, 501–507.
OCDE (2019a). Artificial Intelligence in Society. doi.org/10.1787/eedfee77-en
OCDE (2019b). Recommendation of the Council on Artificial Intelligence. OECD. Recuperado de oecd.ai/en/assets/files/OECD-LEGAL-0449-en.pdf
Subsecretaría de Tecnologías de la Información (2023). Recomendaciones para una inteligencia artificial fiable. Buenos Aires.
Trollip, A. (2021). “Unfolding AI’s Potential: How Investing in Research and Development Can Produce New Knowledge”. Bipartisan Policy Center. Recuperado de bipartisanpolicy.org/blog/unfolding-ais-potential/
Unesco (2022). Recomendación sobre la ética de la inteligencia artificial. París: Unesco. Recuperado de unesdoc.unesco.org/ark:/48223/pf0000381137_spa
Vercelli, A. (2023). “Las inteligencias artificiales y sus regulaciones: pasos iniciales en Argentina, aspectos analíticos y defensa de los intereses nacionales”. Revista de la Escuela del Cuerpo de Abogados y Abogadas del Estado, 7(9), 195-217.
Zuboff, S. (2020). La era del capitalismo de la vigilancia, Barcelona: Paidós.
Downloads
Publicado
Como Citar
Edição
Seção
Licença
La aceptación de un original por parte de la revista implica la cesión no exclusiva de los derechos patrimoniales de los/as autores/as en favor del editor, quien permite la reutilización, luego de su edición (postprint), bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0)
Acorde a estos términos, el material se puede compartir (copiar y redistribuir en cualquier medio o formato) y adaptar (remezclar, transformar y crear a partir del material otra obra), siempre que a) se cite la autoría y la fuente original de su publicación (revista y URL de la obra), b) no se use para fines comerciales y c) se mantengan los mismos términos de la licencia.
La cesión de derechos no exclusivos implica que luego de su edición (postprint) en Question las/os autoras/es pueden publicar su trabajo en cualquier idioma, medio y formato; en tales casos, se solicita que se consigne que el material fue publicado originalmente en esta revista.
Tal cesión supone, también, la autorización de los/as autores/as para que el trabajo sea cosechado por SEDICI, el repositorio institucional de la Universidad Nacional de La Plata, y sea difundido en las bases de datos que el equipo editorial considere adecuadas para incrementar la visibilidad de la publicación y de sus autores/as.
Asimismo, la revista incentiva a las/os autoras/es para que luego de su publicación en Question depositen sus producciones en otros repositorios institucionales y temáticos, bajo el principio de que ofrecer a la sociedad la producción científica y académica sin restricciones contribuye a un mayor intercambio del conocimiento global.