Ir al menú de navegación principal Ir al contenido principal Ir al pie de página del sitio

Responsabilidad moral respecto a robots dotados con moralidad artificial heredada culturalmente mediante neuro-memes

Responsabilidad moral respecto a robots dotados con moralidad artificial heredada culturalmente mediante neuro-memes



Abrir | Descargar


Sección
Artículos

Cómo citar
Sterpin, D. G. . (2019). Responsabilidad moral respecto a robots dotados con moralidad artificial heredada culturalmente mediante neuro-memes. #ashtag, 13, 55-65. https://doi.org/10.52143/2346139X.620

Dimensions
PlumX
Citaciones

Cómo citar

Sterpin, D. G. . (2019). Responsabilidad moral respecto a robots dotados con moralidad artificial heredada culturalmente mediante neuro-memes. #ashtag, 13, 55-65. https://doi.org/10.52143/2346139X.620

Descargar cita

Licencia
Dante Giovanni Sterpin
Sin roles de crédito asignados.

Bajo la premisa de que todo artefacto tecnológico puede implicar un efecto moralmente significa­tivo para el ser humano, en particular por la función para la cual fue diseñado, los robots que están destinados a interactuar socialmente con personas de la tercera edad, por ejemplo, están pensados con miras a que, de algún modo, puedan mejorar la calidad de vida del adulto mayor. Así, dichos artefactos son agentes morales que “inconscientemente” implican bienestar. Sin embargo, la tenden­cia a incrementar su autonomía perceptiva, motriz y comunicativa, para servir como colaboradores o compañía alternativa, también incrementa el riesgo de ser empleados de maneras impredecible­mente negativas. Esto acarrea la responsabilidad de reducir sus efectos inmorales, dotándolos de autonomía moral y educándolos para ser responsables de sus propios actos.


Visitas del artículo 272 | Visitas PDF 205


Descargas

Los datos de descarga todavía no están disponibles.
  1. Allen, C. y Wallach, W. (2012). Moral machines: contradiction in terms or abdication of human responsibility. En P. Lin, G. Bekey y K. Abney (eds.) Robot Ethics: The Ethical and Social Implications of Robotics (55-68), Cambridge: MIT Press.
  2. Allen, C., Wallach, W. y Smith, I. (2006). Why machine ethics? IEEE Intelligent Systems 21(4), 12-17. doi: 10.1109/MIS.2006.83.
  3. Aunger, R. (2002). The electric meme: A new theory of how we think. Free Press.
  4. bbc News, (2016). Tay, la robot racista y xenófoba de Microsoft. bbc News. Recuperado de https:// www.bbc.com/mundo/noticias/2016/03/160325_tecnologia_microsoft_tay_bot_adolescente_inteligencia_artificial_racista_xenofoba_lb
  5. Bekoff, M. y Pierce, J. (2009). Wild Justice: Honor and Fairness among Beasts at Play. American Journal of Play, 1(4), 451–475.
  6. Chen, X., Ong, Y. S., Lim, M. H. y Tan, K. C. (2011). A multi-facet survey on memetic computation, IEEE Transactions on Evolutionary Computation, 15(5), 591-607.
  7. Clark, A. (1996). Connectionism, moral cognition, and collaborative problem solving. En L. May, A. Clark y M. Friedman (eds.) Mind and morals: Essays on cognitive science and ethics, 109-127,MIT Press.
  8. Copeland, B. J. (1993). Artificial Intelligence. A Philosophical Introduction. Wiley-Blackwell
  9. Davenport, D. (2014). Moral mechanisms. Philosophy & Technology, 27(1), 47-60.
  10. DeMoss, D. (1998). Aristotle, connectionism, and the morally excellent brain. Proceedings of the 20th World Congress of Philosophy, 19, 13-20.
  11. Espingardeiro, A. (2014). A roboethics framework for the development and introduction of social assistive robots in elderly care (tesis doctoral), Universidad de Salford, Manchester, UK. Recuperado de http://usir.salford.ac.uk/id/eprint/30815/1/A_Roboethics_Framework_ for_the_Development_and_Introduction_of_Social_Assistive_Robots_in_Elderly_Care.pdf
  12. Feldman, M. y Laland, K. (1996). Gene-culture coevolutionary theory. Trends in ecology & evolution,11(11), 453-457.
  13. Ferber, J. (1999). Multi-agent systems: An introduction to distributed artificial intelligence. Addison-Wesley Longman.
  14. Gabora, L. (1995). Meme and Variations: A computer model of cultural evolution. In L. Nadel y D. Stein (eds.), 1993 Lectures in complex systems (pp. 471-486). Boston: Addison-Wesley.
  15. Gabora, L. (1995). Meme and variations: A computational model of cultural evolution. En 1993 Lectures in complex systems, 471-485. Addison Wesley.
  16. Hauser, M. (2006). Moral minds: How nature designed our universal sense of right and wrong. Ecco/HarperCollins Publishers.
  17. Krishnamurti, J. (1984). La madeja del pensamiento. España: Edhasa.
  18. Krueger, J. (2013). Empathy. In B. Kaldis (ed.), Encyclopedia of Philosophy and the Social Sciences. Sage Publications.
  19. Maldonado, C. y Gómez-Cruz, N. (2010). Modelamiento y simulación de sistemas complejos. Borradores de Investigación: Serie documentos Administración, 66,21.
  20. Malle, B. F. (2016). Integrating robot ethics and machine morality: the study and design of moral competence in robots. Ethics and Information Technology, 18(4), 243-256.
  21. Marriott, C. y Chebib, J. (2016). Modeling the evolution of gene-culture divergence. Proceedings of the Artificial Life Conference, 500-507.
  22. Minsky, M. (1988). Society of mind. Simon and Schuster.
  23. Robohub, (2015). Robot: iCub: This humanoid helps us study the brain. National Geographic. National Geographic Recuperado de https://www.nationalgeographic.org/article/robot-icub/
  24. RCN Noticias. (2018, 16 de septiembre). Uno de cada diez adultos mayores en Colombia está en el abandono. Noticias rcn. Recuperado de https://noticias.canalrcn.com/nacional-pais/uno-cada-diez-adultos-mayores-colombia-esta-el-abandono
  25. Rowlands, M. (2012). Can animals be moral? Oxford University Press.
  26. Sterpin, D. (2011). Perceptrón auto-supervisado: Una red neuronal artificial capaz de replicación memética. Revista Educación en Ingeniería, 6(12), 90-101.
  27. Sterpin, D. (2015). Cognición imitativa para un robot mediante una comunidad de replicadores neuro-meméticos. Revista Tecnura, 19(44), 15-32, Universidad Distrital Francisco José de Caldas.
  28. Stueber, K. (2013). Empathy. En E. Zalta (ed.) The Stanford Encyclopedia of Philosophy (Spring 2018 Edition), Recuperado de https://plato.stanford.edu/archives/spr2018/entries/empathy/
  29. Tapus, A., Mataric, M. y Scassellati, B. (2007). Socially assistive robotics. IEEE Robotics and Automation Magazine, 14(1), 35-42.
  30. Tolton, L. (2013). “Porque te quiero te aporreo”: Los refranes como estrategia discursiva para la legitimación del maltrato conyugal. Discurso & Sociedad, 7(2), 310-337.
  31. Vanderelst, D. y Winfield, A. (2016). The dark side of ethical robots. arXiv preprint 1606.02583. Recuperado de https://arxiv.org/pdf/1606.02583v1.pdf
  32. Vermaas, P., Kroes, P., van de Poel, I., Franssen, M. y Houkes, W. (2011). A philosophy of technology: from technical artefacts to sociotechnical systems. Synthesis Lectures on Engineers, Technology, and Society, 14, 1-134.
  33. Veruggio, G., Solis, J. y Van der Loos, M. (2011). Roboethics: Ethics applied to robotics. IEEE Robotics Automation Magazine, 18, 21–22.
  34. Wallach, W. (2008). Implementing moral decision-making faculties in computers and robots. AI & Society, 22(4), 463-475.
Sistema OJS 3.4.0.9 - Metabiblioteca |