国产大模型透明度测评:仅4款支持用户撤回声纹数据

AI资讯4个月前发布 ScriptSage
3.6K 0

最新发布的《生成式AI用户风险感知与信息披露透明度报告(2024)》揭示了国产大模型在信息透明度方面的现状。报告显示,15款被测大模型产品无一披露训练数据来源,且绝大多数产品声明会将用户输入的信息用于模型训练。值得注意的是,仅有4款大模型允许用户撤回语音信息授权。

这份报告由南都数字经济治理研究中心在京召开的第八届啄木鸟数据治理论坛上发布,全文共计3.6万字。报告呼吁增强大模型服务的透明度,以提升用户对AI生成内容的准确性和可靠性的评估能力,帮助用户更好地识别潜在风险。

测评结果与透明度评分

本次测评涵盖8款国产大模型,其中信息透明度得分超过60分的有8款,主要来自头部互联网公司。得分最高的前三名分别为腾讯元宝(72分)、星火大模型(69分)和智谱清言(67分)。得分较低的产品包括百小应(54分)、面壁Luca(51分)和秘塔(43分)。

个人信息保护与用户授权

在个人信息保护方面,15款大模型均设有隐私政策和用户协议,明确告知用户数据的收集和处理方式。然而,仅有4款大模型允许用户撤回语音信息授权,分别是腾讯元宝、豆包、海螺AI和智谱清言。例如,豆包允许用户通过关闭“设置”中的选项来撤回语音信息的授权。

内容安全与知识产权

在内容安全方面,所有大模型均明确了限制使用的场景,如不得生成侵犯他人权益的内容。多数大模型还会在交互页面标注“生成内容仅供参考”的提示。而在知识产权方面,没有一款大模型主动披露训练数据的具体来源,导致该项得分为零。

用户数据退出AI训练机制

海外大模型在用户数据退出AI训练机制上有不同的做法。例如,谷歌的Gemini允许用户关闭“Gemini应用活动记录”以避免对话内容被用于AI训练,但已通过人工审核的数据仍将独立保存。相比之下,国内大模型在这方面做得还不够完善。

训练数据来源与版权争议

测评发现,15款国产大模型均未公开训练数据的具体来源,这可能是为了避免版权争议或出于竞争考虑。尽管如此,报告建议AI公司应尽可能多地发布有关基础模型的信息,以提升用户对模型的信任度。

技术瓶颈与内容质量

所有被测大模型均表示无法完全保证生成内容的真实性、准确性,主要原因是技术本身的局限性。为此,多家大模型采取了自动评估、过滤、审查等措施来提高生成内容的质量。腾讯元宝、天工AI和可灵三款大模型还采用了机器与人工审查相结合的方式。

未成年人保护与投诉反馈

几乎所有被测大模型都在政策协议中提供了未成年人保护专章,个别平台如星野还提供了青少年模式。此外,大多数平台设置了投诉反馈入口,并承诺在15个工作日内给予反馈。

建议与展望

报告建议AI厂商应重视大模型信息透明度问题,赋予用户对个人数据的更多自主权,探索AI时代的版权保护路径,确保原创作品的保护与传播。同时,报告呼吁加强内容标识要求,推动相关管理办法和国标的出台,为产业界提供清晰指引。

© 版权声明

相关文章

暂无评论

none
暂无评论...