The 隐私的优点 and Cons of 人格化d AI

萨菲亚Kazi
作者: 萨菲亚Kazi, CSX-F, CIPT
发表日期: 2023年9月14日

去年,生成式人工智能(AI)的快速发展引发了许多隐私和伦理问题, 包括讨论从受版权保护的作品中生成人工智能学习的伦理和合法性. 例如, some authors have filed a lawsuit against OpenAI, 谁拥有ChatGPT, 违反版权.1 还有人担心生成式人工智能可能会以何种方式使用个人信息. 例如, 意大利数据保护部门出于隐私方面的考虑暂时禁止了ChatGPT.2

生成式人工智能可以创建文本并与用户聊天,这是一个独特的挑战,因为它可以让人们感觉自己好像在与人类互动. Anthropomorphism refers to attributing human attributes or personalities to nonhumans.3 人们经常将人工智能拟人化,尤其是生成型人工智能,因为它可以创造出类似人类的输出.

This faux relationship can be problematic. ELIZA效应描述的是“当一个人将人类水平的智能赋予人工智能系统,并错误地赋予其意义”的现象, 包括情感和自我意识, 对人工智能.”4 有一次, a man shared his concerns about climate change with a chatbot, and it provided him with methods to take his own life. 可悲的是, 他自杀而死, 他的妻子声称,如果不是因为他与聊天机器人的关系,他不会这么做.5

These algorithms that produce human-like outputs can be fun to play with, 但它们带来了严重的隐私问题. There are privacy-related pros and cons to anthropomorphized AI, 对于利用面向消费者的生成式人工智能的澳门赌场官方下载来说,需要考虑一些因素.

隐私的优点

人格化人工智能的一个与隐私相关的好处是,它可以帮助用户将过度的数据收集置于环境中. When information is collected by an enterprise or an app, it may seem like a large assortment of 1s and 0s that do not hold any significance. But if it seems like a stranger is telling users private information about themselves, 这似乎令人不快, and the consequences of sharing data become concrete and tangible.

应用程序可能会被要求包含它们在应用程序商店中收集的信息的描述, 但用户通常不会阅读它,因为它太复杂,或者他们不明白数据收集到底需要什么. In contrast, having an AI chat put that information into use may be more impactful. Consider Snapchat’s AI chatbot called My AI. Although the Apple App 商店 informs users that Snapchat can access location data, 图1 more practically illustrates what access to location data means. 例如, I asked My AI to recommend a good coffee shop near me.

图1 -我的AI和位置数据

App users may understand that an app has access to location data, 但是,与一个看似人类的聊天机器人交谈,它会说出特定的澳门赌场官方下载澳门赌场官方下载,这更好地说明了与应用程序共享位置数据的意义. This may help people learn more about privacy matters, 哪些因素可以促使消费者更加谨慎地对待他们分享的信息,并采取措施保护自己的隐私.

隐私的缺点

当与人工智能聊天机器人交谈时, 如果聊天机器人听起来像人类,使用第一人称或第二人称语言,用户可能会比平时更愿意分享更多的信息. 它可能会感觉提供给聊天机器人的信息是与一个友好的人共享的,而不是一个可能将这些数据用于各种目的的澳门赌场官方下载. 例如,人们可能会与聊天机器人交谈一段时间,并最终透露敏感信息(例如.g., health issues they are struggling with). Most chatbots will not warn users when they are providing sensitive information.

个人的输入或人工智能平台的输出有可能被用来训练未来的反应. 这可能意味着与聊天机器人共享的敏感数据或秘密信息可能与他人共享,或影响其他人接收到的输出. 例如, 尽管它已经改变了政策, OpenAI initially trained its models on data provided to ChatGPT.6 And after AI is trained on data, it is hard to untrain it.7

隐私 notices are often challenging to understand, and there may be a temptation for consumers to bypass them in favor of a conversational, easy-to-comprehend response from an AI chatbot about privacy. Users may believe the information the chatbot provides is comprehensive. 但是,没有深入研究提供商隐私声明的人可能对提供商收集的信息有不准确的了解.

例如, I asked Snapchat’s chatbot what information the app collects, and it provided me with incomplete information. 图2 shows My AI indicating what data it collects, but that is not a complete list. 图1 established that the app also collects location data.

图2—Asking Snapchat What Data It Collects

从业人员的要点

在使用人工智能聊天机器人的澳门赌场官方下载工作的隐私专家应该考虑聊天机器人提供隐私实践信息的一些方式. Responses to questions about data collected, 如何使用数据和消费者权利必须准确和彻底,以避免误导数据主体.

使用人工智能聊天机器人的澳门赌场官方下载还必须考虑用户的年龄,并确保未成年人受到保护. 例如, 59% of teens say they use Snapchat,8 and only users with a paid Snapchat+ subscription can remove its My AI feature.9 这意味着使用免费版Snapchat的未成年人和未成年人的父母不能删除My AI功能. 青少年, who may not understand the flaws with it or how their information could be used, 正在使用我的人工智能来帮助心理健康吗, 这可能很危险.10 向未成年人提供人工智能服务的澳门赌场官方下载应告知其提供敏感信息的后果,并强调输出可能不准确.

I asked My AI what to do about a headache, and while it initially declined to provide medical advice, it eventually recommended I take medication (图3). Although it recommended relatively harmless, 非处方药物, 未成年人可能不知道这些推荐的药物是否会与任何处方药相互作用.

图3-My AI推荐药物

即使是没有利用生成式人工智能的澳门赌场官方下载也需要探索它如何影响他们的日常运营. 员工可能会觉得让ChatGPT帮忙起草电子邮件就像找同事帮忙一样, 但两者没有可比性:ChatGPT是第三方服务,不遵守工作场所保密规范. It is imperative to have a policy around the use of generative AI. This requires input from a variety of departments, not just the privacy team. 管理人员还应该制定指导方针,说明什么样的工作可以利用人工智能工具.g., it may be permitted to use ChatGPT to draft a social media post, but it may not be acceptable to use it to draft a confidential email). Not having a policy around the use of GPTs and other AI tools can lead to employee misuse, 这可能会导致隐私问题.

在隐私意识培训方面, 隐私专家可以利用人工智能的拟人化元素来展示信息泄露不当所产生的影响. 非隐私工作人员可能不理解为什么某些数据被认为是敏感的,或者如果信息被泄露为什么重要, 但像Snapchat的人工智能这样的例子可以有效地说明,如果位置数据等信息被不当共享,可能会发生什么后果.

结论

Many enterprises leverage human-like AI tools, and many employees may also rely on them for their work. 从隐私的角度来看,人工智能被人格化的方式同时使它看起来更不值得信赖,也更值得信赖. 制定有关人工智能使用的政策,并确保消费者了解与人工智能共享数据的影响,可以促进更有效和值得信赖的人工智能工具.

尾注

1 奶油,E.; “Authors File a Lawsuit Against OpenAI for Unlawfully ‘Ingesting’ Their Books,《澳门赌场官方下载》,2023年7月5日
2 穆克吉,年代.; G. Vagnoni; “Italy Restores ChatGPT After OpenAI Responds to Regulator路透社,2023年4月28日
3 韦氏词典人格化
4 香,C.; “'He Would Still Be Here': Man Dies by Suicide After Talking With AI Chatbot, Widow Says,副,2023年3月30日
5 同前.
6 OpenAI。”OpenAI的澳门赌场官方下载隐私
7 Claburn T.; “Funnily Enough, AI Models Must Follow 隐私 Law—Including Right to Be Forgotten,《澳门赌场官方软件》,2023年7月13日
8 Vogels E.; R. Gelles-Watnick; N. Massarat; “青少年,社交媒体和技术2022,皮尤研究中心,2022年8月10日
9 Snapchat。”How Do I Unpin or Remove My AI From My Chat Feed?
10 鲁迪,M.; “青少年正在转向Snapchat的“我的人工智能”寻求心理健康支持——医生们对此提出了警告福克斯新闻,2023年5月5日

萨菲亚Kazi, CSX-F, CIPT

Is a privacy professional practices principal at ISACA®. 在这个角色中, she focuses on the development of ISACA’s privacy-related resources, 包括书籍, 白皮书和审查手册. Kazi has worked at ISACA for 9 years, previously working on the ISACA® 杂志 and developing the award-winning ISACA Podcast. 2021年,她获得了AM奖&P网络的新兴领袖奖, which recognizes innovative association publishing professionals under the age of 35.