2,344 | 0 | 252 |
下载次数 | 被引频次 | 阅读次数 |
生成式人工智能(GAI)的迅猛发展引发了诸多伦理问题。对生成式人工智能伦理问题进行深入研究,将有助于更好地指导生成式人工智能技术及其相关产业的健康发展。基于文献计量学方法,利用CiteSpace软件,对国内外生成式人工智能伦理研究的现状与趋势进行可视化分析。研究发现:一方面,国内外研究者主要关注的伦理问题包括数据隐私与安全、版权侵害与知识产权保护、偏见与歧视、责任归属困境、社会不平等以及人的主体性消解等,并从技术、社会和全球三个层面提出了相应的治理路径;另一方面,国内外学者在研究领域、研究方法及研究方向上存在差异,这反映了不同文化背景和价值观念、技术发展阶段、法律体系和政策环境、经济发展水平和社会结构等因素的影响。此外,国内外关于生成式人工智能伦理问题的研究趋势呈现出对技术发展的关注、应用领域的拓展和人机交互性的强化等共性特点。
Abstract:The rapid development of generative artificial intelligence(GAI) has raised numerous ethical issues. Investigating these ethical challenges is critical to guiding the responsible development of GAI technologies and their associated industries. Using bibliometric methods and CiteSpace software, a visualization analysis was conducted to examine the current status and emerging trends in domestic and international research on GAI ethics. Key findings indicate that on the one hand, researchers globally primarily focus on ethical challenges such as data privacy and security, copyright violations and intellectual property protection, algorithmic bias and discrimination, accountability dilemmas, social inequality, and the erosion of human agency; and have proposed corresponding governance strategies spanning technological innovation, societal regulation, and global collaboration. On the other hand, scholars from different nations exhibit divergent research priorities in fields, methodologies, and directions, influenced by different cultural backgrounds and values, stages of technological development, legal systems and policy environments, economic conditions, and social structures. Additionally, the research trends in domestic and international GAI ethical issues highlight shared emphases on technological development, expansion of application fields, and strengthening of human-GAI interaction.
[1]钭晓东.论生成式人工智能的数据安全风险及回应型治理[J].东方法学,2023(5):106-116.
[2]李旭光,胡奕,王曼,等.人工智能生成内容研究综述:应用、风险与治理[J].图书情报工作,2024,68(17):136-149.
[3]徐伟,韦红梅.生成式人工智能训练数据风险治理:欧盟经验及其启示[J/OL].现代情报.(2024-11-21)[2024-11-29].http://kns.cnki.net/kcms/detail/22.1182.G3.20241121.1509.002.html.
[4]施敏,杨海军.大语言模型数据隐私保护的难点与探索[J].大数据,2024,10(5):168-176.
[5]李子浩,李天云.技术向善:人工智能大模型伦理风险识别及治理路径[J].学术交流,2024(8):30-42.
[6]刘海明,陶鹏辉.媒体数字内容AIGC版权实践的模仿伦理:争议、界限与原则[J].新闻爱好者,2024(7):27-31.
[7]王紫琪,解学芳.AIGC赋能文化产业高质量发展的法律隐忧和分层治理[J].出版广角,2024(13):45-51.
[8]方庆乔.人工智能生成物的作品认定初探[J].内蒙古电大学刊,2021(1):33-34.
[9]王悦玥.再论“独创性” :以人工智能生成内容为例[J].南海法学,2020,4(3):96-105.
[10]方卿,丁靖佳.人工智能生成内容(AIGC)的三个出版学议题[J].出版科学,2023,31(2):5-10.
[11]庄诗岳,辛谏.生成式智能出版:可版权性与著作权归属[J].编辑之友,2024(3):96-104.
[12]王迁.再论人工智能生成的内容在著作权法中的定性[J].政法论坛,2023,41(4):16-33.
[13]刘艳红.生成式人工智能的三大安全风险及法律规制:以ChatGPT为例[J].东方法学,2023(4):29-43.
[14]吴静.生成式人工智能的数据风险及其法律规制:以ChatGPT为例[J].科技管理研究,2024,44(5):192-198.
[15]曹建峰.迈向可信AI:ChatGPT类生成式人工智能的治理挑战及应对[J].上海政法学院学报(法治论丛),2023,38(4):28-42.
[16]郭全中,张金熠.生成式人工智能价值观的存在问题及伦理风险[J].新闻与写作,2024(10):68-76.
[17]卢安文.生成式人工智能:风险、监管与治理模式探究[J/OL].重庆邮电大学学报(社会科学版) .(2024-06-29) [2024-11-29].https://link.cnki.net/urlid/50.1180.C.20240628.0838.004.
[18]田淑慧.生成式人工智能时代网络公共话语空间治理的新态势 [J].西南石油大学学报(社会科学版),2025,27 (1):18-26.
[19]RAMAN R,KUMAR NAIR V,NEDUNGADI P,et al.Fake news research trends,linkages to generative artificial intelligence and sustainable development goals[J].Heliyon,2024,10(3):1-17.
[20]HICKS M T,HUMPHRIES J,SLATER J.ChatGPT is bullshit [J].Ethics and Information Technology,2024,26(2):1-10.
[21]沈芳君.生成式人工智能的风险与治理——兼论如何打破“科林格里奇困境” [J].浙江大学学报(人文社会科学版),2024,54(6):73-91.
[22]崔中良,卢艺.国外学者关于人工智能伦理问题研究述评[J].国外理论动态,2023(2):160-168.
[23]李伟鑫,王晓丽.ChatGPT类生成式人工智能的伦理问题、原因分析与规制路径[J].昆明理工大学学报(社会科学版),2024,24(1):54-62.
[24]芮然.ChatGPT类生成式人工智能归责论析——以责任能力为中心[J].湖北经济学院学报(人文社会科学版),2024,21(10):117-121.
[25]刘珊珊.生成式人工智能风险规制与保护路径[J].网络安全和信息化,2024(9):1-4.
[26]闫鸿斐,夏鹏,郑明帅.生成式人工智能技术自主创新的伦理困境与应对策略[J].科技视界,2024(22):63-66.
[27]HACKER P.The European AI liability directives-Critique of a half-hearted approach and lessons for the future[J].Computer Law & Security Review,2023,51:1-42.
[28]曾磊,董博儒.生成式人工智能的数据保护及责任归属问题研究——以ChatGPT为视角展开[J].河北北方学院学报(社会科学版),2024,40(2):49-53.
[29]董春雨.从机器认识的不透明性看人工智能的本质及其限度[J].社会科学文摘,2024(4):5-7.
[30]程鹏,童松,崔鹤,等.AI时代下科学知识生产的伦理困境与策略 [J].科学学研究,2024,42 (11):■.The experimental evaluation of different explainable AI techniques for large language models[C]//Disruptive Information Technologies for a Smart Society.Cham:Springer,2024.
[32]陈晓红,杨柠屹,周艳菊,等.数字经济时代AIGC技术影响教育与就业市场的研究综述——以ChatGPT为例[J].系统工程理论与实践,2024,44(1):260-271.
[33]魏晓光,赵珂旋,吕菲,等.生成式人工智能(AIGC)的社会风险及治理研究[J].南方农机,2024,55(9):27-30.
[34]王薇,刘大椿.ChatGPT的进化与人的主体性[J].科学技术哲学研究,2024,41(5):22-29.
[35]AL NAQBI H,BAHROUN Z,AHMED V.Enhancing work productivity through generative artificial intelligence:a comprehensive literature review[J].Sustainability,2024,16(3):1-37.
[36]陈建兵,王明.负责任的人工智能:技术伦理危机下AIGC的治理基点[J].西安交通大学学报(社会科学版),2024,44(1):111-120.
[37]BAEZA-YATES R.Lecture held at the academia europaea building bridges conference 2022[J].European Review,2023,31(4):1-16.
[38]刘纪铖.人工智能大模型引发的数据安全治理挑战及其应对策略研究[J].保密科学技术,2024(1):12-16.
[39]邹开亮,刘祖兵.生成式人工智能个人信息安全挑战及敏捷治理[J].征信,2024,42(1):41-50.
[40]张玫瑰,张琪梦.人工智能时代公共空间数据个人信息保护机制研究[J/OL].情报科学.(2024-12-18) [2025-01-07].https://link.cnki.net/urlid/22.1264.G2.20241218.1436.012.
[41]和军,李江涛.人工智能数据风险及其治理[J].中国特色社会主义研究,2024,15(6):42-51.
[42]江必新,胡慧颖.人工智能安全发展的法治体系构建[J].探索与争鸣,2024(12):89-96.
[43]袁曾.生成式人工智能治理的法律回应[J].上海大学学报(社会科学版),2024,41(1):28-39.
[44]马忠,高怡英.生成式大语言模型的社会认知风险与应对[J].浙江社会科学,2025(2):95-105.
[45]朱新梅,周菁.全球主要国家和地区人工智能治理研究报告[J].声屏世界,2023(24):14-21.
[46]KREIENKAMP J,PEGRAM T.Governing complexity:design principles for the governance of complex global catastrophic risks[J].International Studies Review,2021,23(3):1-28.
[47]何祎金.生成式人工智能技术治理的三重困境与应对[J].北京工业大学学报(社会科学版),2024,24(2):124-134.
[48]范静波,梁慧.ChatGPT在教育领域应用的伦理风险及挑战[J].中国科学院院刊,2024,39(11):1871-1881.
[49]程睿.ChatGPT介入学术论文创作透明度义务的履行[J].中国高教研究,2023(11):62-69.
[50]沈卫星,刘宇轩.ChatGPT介入新闻出版:功能、伦理风险及编辑把关[J].中国编辑,2023(5):123-128.
[51]RAY T R,KELLOGG R T,FARGEN K M,et al.The perils and promises of generative artificial intelligence in neurointerventional surgery[J].Journal of NeuroInterventional Surgery,2023,16(1):1-5.
[52]ARMITAGE R C.Digital health technologies:compounding the existing ethical challenges of the “right” not to know[J].Journal of Evaluation in Clinical Practice,2024,30(5):1-6.
[53]THEODOSIOU A A,READ R C.Artificial intelligence,machine learning and deep learning:potential resources for the infection clinician[J].Journal of Infection,2023,87(4):1-8.
[54]BAHROUN Z,ANANE C,AHMED V,et al.Transforming education:a comprehensive review of generative artificial intelligence in educational settings through bibliometric and content analysis[J].Sustainability,2023,15(17):1-40.
[55]WóJCIK S,RULKIEWICZ A,PRUSZCZYK P,et al.Beyond ChatGPT:What does GPT-4 add to healthcare?The dawn of a new era[J].Cardiology Journal,2023,30(6):1-8.
[56]田天亮.生成式AI驱动新质生产力发展的动力机制、困境识别与优化路径[J].内蒙古社会科学,2024,45(4):170-177.
[57]张广胜.生成式人工智能的国家安全风险及其对策[J].人民论坛·学术前沿,2023(14):76-85.
[58]STAHL B C,EKE D M.The ethics of ChatGPT–Exploring the ethical issues of an emerging technology[J].International Journal of Information Management,2024,74:1-14.
[59]HAN J W,LI Q S,XU Y,et al.Design of a trusted content authorization security framework for social media[J].Applied Sciences,2024,14(4):1-12.
[60]饶晗.中美欧生成式人工智能政策法规比较研究及启示[J].中阿科技论坛(中英文),2024(3):157-162.
[61]HARRER S.Attention is not all you need:the complicated case of ethically using large language models in healthcare and medicine[J].eBioMedicine,2023,90:1-12.
[62]于雪,王前.基于试探性策略的新兴科技伦理治理路径探究[J].中国科技论坛,2025(1):140-147.
(1)参见:Generative AI:Perspectives from Stanford HAI,https://hai.stanford.edu/sites/default/files/2022-03/2021-AI-Index-Report_Chinese-Edition.pdf,访问日期:2024年9月10日。
基本信息:
DOI:10.16112/j.cnki.53-1160/c.2025.02.123
中图分类号:G353.1;TP18
引用信息:
[1]潘丽.生成式人工智能的伦理问题研究综述——基于CiteSpace的文献计量与可视化分析[J].昆明理工大学学报(社会科学版),2025,25(02):57-68.DOI:10.16112/j.cnki.53-1160/c.2025.02.123.
基金信息:
国家社会科学基金青年项目“大数据隐私经济的哲学研究”(20CZX016)