Grammarly 在未经同意的情况下利用身份。.

最近,Grammarly 的 “专家点评 ”功能受到了严格审查,因为用户发现人工智能生成的建议似乎来自行业专家。其中包括几位知名人士,但他们并没有同意将自己的名字与这一功能联系在一起,这引发了一场关于在写作辅助工具中使用人工智能的道德问题的讨论。.

Grammarly 是一款备受学生和专业人士推崇的拼写和语法检查工具,早在八月份就推出了 ‘专家点评 ’功能。这项创新承诺为用户提供 “受 ”主题专家 ‘启发 ’的写作建议。然而,当发现其中一些 "专家 "完全没有意识到自己的贡献时,这一承诺就适得其反了。.

令人惊讶的是,测试该功能的作者发现,反馈意见似乎来自他们自己的专业圈子。其中一个值得注意的发现是,一位作者发现一些评论似乎模仿了他在 Verge 的同事的建议,包括主编尼莱-帕特尔(Nilay Patel)、责任编辑大卫-皮尔斯(David Pierce)、资深编辑肖恩-霍利斯特(Sean Hollister)和汤姆-沃伦(Tom Warren)。Grammarly 在专题中使用这些人的名字之前,似乎没有征得他们的同意。.

Grammarly 的这一疏忽引发了有关数据隐私和人工智能使用道德的重要问题。值得注意的是,它强调了科技公司在开发参考或复制活人的功能时采用透明流程的必要性。.

该漏洞还表明,在隐私和同意的期望方面,技术开发者和用户之间可能存在脱节。专家审查 ‘功能等创新在理论上看似具有突破性,但如果执行不当,就可能导致界限模糊和信任缺失。.

随着人工智能不断塑造我们的生活和工作环境,这类对话变得越来越重要。像 Grammarly 这样的公司不仅有责任为用户创造有用的工具,还有责任培养一种尊重其产品所涉及的个人的文化。这一事件提醒所有人,在处理人工智能的使用、隐私和道德之间的复杂关系时,必须小心谨慎。.

欲了解更多详情,请参阅 The Verge 网站上的原始新闻报道。. https://www.theverge.com/ai-artificial-intelligence/890921/grammarly-ai-expert-reviews

.

您可能还喜欢这些

Porozmawiaj z ALIA

ALIA