华为P70手机AI修图引争议!大模型处理图片时要采取哪些策略?

发表于:2024-4-25 13:25

字体: | 上一篇 | 下一篇 | 我要投稿

 作者:51Testing    来源:51Testing软件测试网原创

  华为Pura70系列手机自发布以来,网上对其讨论的热度居高不下。其中最被大家津津乐道的是“AI修图”功能。
  有网友演示,随手拍一张照片,在想清除的地方随意涂抹几下,就能精确地圈出轮廓。然后等上10秒钟,就可以去除标记的主体,并且在相应部分生成非常自然的背景,基本看不出涂抹、拼接的痕迹,更没有了以前突兀的色块、色条。
(图源网络)
  但随着网友创作热情高涨,也出现了一些有争议的内容。就是它的AI修图功能也可以一键将衣服消除一部分。对此华为客服称,该AI功能是华为自己开发的,大模型算法有漏洞,后续会优化。
  在使用大型机器学习模型对图片进行处理时,确保不生成不雅或色情内容是一个重要的考虑因素。以下是一些可能的策略:
  1.数据预处理:在训练模型之前,对数据集进行筛选,排除所有不适当的图片。
  2.模型训练:在训练过程中,明确告诉模型哪些类型的输出是不可接受的,并通过监督学习的方式让模型学会避免这些输出。
  3.内容审查:在模型生成图片后,使用内容审查系统来检测和过滤不适当的内容。
  4.社区准则:为使用模型的用户制定清晰的社区准则,明确禁止生成和分享不适当的图片。
  5.用户教育:教育用户关于不适当内容的风险,以及如何避免生成这类内容。
  6.技术限制:在技术上限制模型的某些功能,比如避免生成过于裸露或暗示性的姿势和场景。
  7.法律遵从性:确保模型的使用遵守当地法律法规,对违法内容进行严格限制。
  8.人工审核:在自动检测系统之后,还可以设置人工审核流程,以确保所有生成的内容都符合标准。
  9.反馈机制:建立一个反馈机制,让用户可以报告不适当的内容,以便进一步改进模型和审查系统。
  10.透明度:对于模型的工作原理和决策过程保持透明,让用户了解其生成内容的潜在风险。
  11.伦理审查:在开发和部署模型之前,进行伦理审查,确保其符合社会伦理标准。
  12.持续监控:持续监控模型的表现,及时更新和改进内容审查机制。
  通过这些措施,可以在一定程度上减少不雅或色情内容的生成。然而,完全防止这类内容的生成可能是一个挑战,因为机器学习模型可能会在未见过的数据上产生不可预测的结果。因此,持续的监控和改进是必要的。
  如果你对“大模型算法”感兴趣,想学习更多的相关知识,欢迎点击学习《GPT大模型算法开发工程师》,相信这门课程能提供你所需的知识和技能。
  版权声明:本文出自51Testing会员投稿,51Testing软件测试网及相关内容提供者拥有内容的全部版权,未经明确的书面许可,任何人或单位不得对本网站内容复制、转载或进行镜像,否则将追究法律责任。
《2023软件测试行业现状调查报告》独家发布~

关注51Testing

联系我们

快捷面板 站点地图 联系我们 广告服务 关于我们 站长统计 发展历程

法律顾问:上海兰迪律师事务所 项棋律师
版权所有 上海博为峰软件技术股份有限公司 Copyright©51testing.com 2003-2024
投诉及意见反馈:webmaster@51testing.com; 业务联系:service@51testing.com 021-64471599-8017

沪ICP备05003035号

沪公网安备 31010102002173号