Identifier
Event
Language
Presentation type
Topic it belongs to
Subtopic it belongs to
Title of the presentation (use both uppercase and lowercase letters)
Presentation abstract
Long abstract of your presentation
El enorme potencial de la
inteligencia artificial (IA) es cada vez más notorio en diversos ámbitos de la
vida humana. Esta situación responde al importante soporte que ofrecen los
intelectos sintéticos en actividades que destacan por su gran complejidad, como
las finanzas, la industria, la medicina o el derecho, entre otras. La Comisión
Europea (CE) es conocedora de esta situación y reclama el impulso de un
ecosistema de IA confiable, como una medida de garantía para una gobernanza
tecnológica que promueva un desarrollo humanocéntrico, en términos de bienestar
y calidad de vida.
Al mismo tiempo, el interés de la
CE para la generación de un ecosistema donde la confianza cobre importancia,
exige la implicación de los expertos en IA para hacer los conocimientos sobre
esta tecnología más comprensibles y accesibles a la ciudadanía. Esta exigencia
es planteada situando al principio ético de la explicabilidad como un pilar
fundamental para el desarrollo y la gobernanza de los sistemas artificiales. El
interés de la CE en la explicabilidad ha quedado demostrado en numerosas
ocasiones, como puede observarse en el Programa Marco de Investigación e
Innovación de la Unión Europea, Horizon
2020 (2015) y en los documentos Statement
on Artificial Intelligence, Robotics and “Autonomous” Systems (2018), del
European Group on Ethics in Science and New Technologies, Ethics guidelines for trustworthy AI (2019), del Grupo de expertos
de alto nivel sobre IA, y en el Libro
Blanco sobre inteligencia artificial (2020). No obstante, este interés y
reclamo para la generación de un ecosistema confiable, requiere, a su vez, un
compromiso por parte los expertos, gestores técnicos y políticos involucrados
en el ámbito de la IA.
Este compromiso responde a tres
razones: el valor de los testimonios y la participación de los afectados, como
mecanismo de inclusión y fortalecimiento democrático; en segundo lugar, la naturaleza
pública de los fondos que financian, mayormente, el desarrollo de la IA en
Europa; y, en tercer lugar, un razón pragmática vinculada a la utilidad que
presenta la participación de la ciudadanía en aspectos relacionados con la
ciencia, en términos de evaluación, anticipación, formación y reducción de la
probabilidad de errores (Fiorino, 1990). Estas razones ponen de relieve la
importancia que simboliza la participación ciudadana para el desarrollo de la
ciencia y la tecnología en un contexto democrático. Además, sirven para
destacar un aspecto esencial para responder a los reclamos de cultivo de
confianza, es decir, para promover un compromiso con el establecimiento de un
hilo comunicativo con la ciudadanía como una estrategia de explicabilidad y
comprensión científica. Illah Nourbakhsh (2009) afirma que la retórica empleada
por los investigadores presenta una importante relevancia moral que configura
el modo de interactuar con la ciudadanía. Diversos estudios que abordan las
actitudes del público hacia los intelectos sintéticos, confirman la tesis de
Nourbakhsh (Palmisciano, P., et al.
2020; Vasiljeva, T., Kreituss, I. y Lulle, I., 2021; Young MD., et al., 2021; Layard Horsfall, et al., 2021).
A pesar de vivir un momento
histórico con un gran desarrollo de redes de conexión digital, la comunicación
efectiva entre las personas no siempre está garantizada (Domingo Moratalla,
2021). En el ámbito de la IA, este fenómeno puede ocasionar una brecha entre
los expertos y los usuarios, por este motivo, resulta fundamental poner en
valor la esfera pública como un espacio que permite articular mecanismos para facilitar
la comprensión de conocimientos, como una medida de explicabilidad, e incluir a
diversos grupos de interés para un escrutinio ético (Joss, 2022) y un ejercicio
de transparencia (Larsson y Heintz, 2020).
Según Cecilie Glerup y Maja Horst
(2014), las actitudes comunicativas de la ciencia se formulan a partir de las
siguientes racionalidades políticas: demarcación, reflexividad, contribución e
integración. En estela de lo que viene planteándose aquí sobre la pertinencia
de una mejora de las habilidades comunicativas para responder al principio
ético de la explicabiilidad, es preciso señalar que las actitudes de la
contribución y la integración, suponen dos aspectos a tener en cuenta para la
articulación de una propuesta de ciencia interactiva. En primer lugar, por
cultivar un espíritu cívico en la ciencia, al esperar de ésta su implicación
para responder a las preferencias públicas manifestadas por la ciudadanía y sus
instituciones; y, en segundo lugar, por construirse sobre la premisa de un
trabajo conjunto de los actores de la ciencia y la sociedad.
José Antonio López Cerezo (2005)
valora la creciente importancia pública que se le ha concedido a la ciencia y
la tecnología como un recurso político de poder y legitimación. Al mismo
tiempo, precisa que la mayoría de las ocasiones se promueve una visión lineal
de la comunicación científica situada en la estela de un modelo de déficit científico
que integra una perspectiva determinista y piramidal que privilegia los
enfoques top-down (Hishiyama, 2012).
Por estos motivos, plantea un modelo interactivo de comunicación que desafía la
visión pasiva del proceso de enculturación científica. Observa a la ciudadanía
como un potencial elemento en el proceso comunicativo y defiende la apropiación
social de los contenidos. Este modelo ofrece una oportunidad para la generación
de un espacio para el encuentro público y la deliberación. Su propuesta se sitúa
en la senda del modelo CUSP (siglas en inglés de Critical Understanding of Science in Public) (Perrault, 2013).
En definitiva, el reclamo de la CE
para impulsar un ecosistema de IA confiable sobre el principio ético de la
explicabilidad, puede satisfacerse a través de un modelo comunicativo de la
ciencia que se articule a partir de la interactividad para hacer el
conocimiento más comprensible a la ciudadanía. Asimismo, una comunicación
comprometida con la explicabilidad y la comprensión es, al mismo tiempo, una
oportunidad fundamental para promover un fortalecimiento de habilidades y
prácticas cívicas en un contexto democrático.
Bibliografía
Comisión Europea (2015). Portal
Horizonte 2020. Disponible en: https://ec.europa.eu/programmes/horizon2020/en/h2020-section/responsible-research-innovation#Article
Comisión Europea (2019). Ethics guidelines
for trustworty AI. Extraído el 24 de enero de 2022 desde https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
Comisión Europea (2020). Libro
Blanco sobre la inteligencia artificial:
un enfoque europeo orientado a la excelencia y la confianza. Extraído el
24 de enero de 2022 desde
https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en
Domingo Moratalla, A. (2021). Del
hombre carnal al hombre digital: vitaminas para una ciudadanía digital, España:
TEELL Editorial.
European Group on Ethics in
Sciencie and New Technologies (2018). Statement on Artificial Intelligence,
Robotics and “Autonomous” Systems, Comisión Europea, Dirección General de
Investigación e Innovación. Extraído el 24 de enero de 2022 desde https://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf.
Fiorino, D. J. (1990). “Citizen
Participation and Environmental Risk: A Survey of Institutional Mechanism”.
Science, Technology, & Human Values, 15(2), 226-243.
Glerup, C. y Horst, M. (2014).
“Mapping ‘social responsibility’ in science”. Journal of Responsible
Innovation, 1(1), 31-50.
Hishiyama R. (2012) Outreach
Communication. En T. Ishida (Ed.) Field Informatics (pp. 157-169). Berlin:
Springer.
Joss, S. (2002). “Toward the Public
Sphere—Reflections on the Development of Participatory Technology Assessment”.
Bulletin of Science, Technology & Society, 22(3), 220-231.
Larsson, S. y Heintz, F. (2020).
“Transparency in artificial intelligence”. Internet Policy Review, 9(2).
Layard Horsfall, H., Palmisciano,
P., Khan, D. Z., Muirhead, W., Koh, C. H., Stoyanov, D. y Marcus, H. J. (2021).
“Attitudes of the Surgical Team Toward Artificial Intelligence in Neurosurgery:
International 2-Stage Cross-Sectional Survey”. World Neurosurgery, 146,
724-730.
López Cerezo, J. A. (2005). “Participación
ciudadana y cultura científica”. Arbor: Ciencia, pensamiento y cultura, 715,
351-362.
Palmisciano, P., Jamjoom, A. A. B.,
Taylor, D., Stoyanov, D. y Marcus, H. J. (2020). “Attitudes of Patients and
Their Relatives Toward Artificial Intelligence in Neurosurgery”. World
Neurosurgery, 138, 627-633.
Perrault, S. (2013). Communicating
Popular Science. From Deficit to Democracy, England: Palgrave Macmillan.
Vasiljeva, T., Kreituss, I. y
Lulle, I. (2021). “Artificial Intelligence: The Attitude of the Public and
Representatives of Various Industries”. Journal of Risk and Financial
Management, 14(8), 339.
Young MD., A., Amara MD., D., Bhattacharya
BS. y Wey MD., Prof. María L. (2021). “Patient and general public attitudes
towards clinical artificial intelligence: a mixed methods systematic review”.
The Lancet Digital Health, 3(9), 599-611.
Keywords (use both uppercase and lowercase letters)
Main author information
Co-authors information
Status:
Approved