找回密码
 注册
搜索
热搜: 活动 交友
查看: 110|回复: 0

” 在他看来,“大多数人使用过的版

[复制链接]

1

主题

0

回帖

5

积分

新手上路

积分
5
发表于 2024-1-9 14:17:13 | 显示全部楼层 |阅读模式
本都是正在测试的应用程序。就像测试中的所有东西一样,它不能用于数据处理。问题是用户已经将个人数据输入到这个人工智能中,该技术所做的就是学习。我认为最终的做法被断章取义,某些欧洲当局的作用也不是很合理。” 对于这位律师来说,问题不在于禁止该工具,而在于记住它的使用不适合处理个人数据。“你必须意识到,很多事情并不准确,它们都是被发明的。ChatGPT 是一个自然语言处理器,它不是数据库或维基百科,”他宣称。 在这种情况下,我们的对话者表示,AEPD 在这个问题上的反应“对我来说似乎比意大利的反应更明智”。意大利人选择禁止,西班牙人选择将其提交给欧洲数据保护委员会,这些事情必须在欧洲数据保护委员会进行讨论。


在那里,他们对其他技术做出了决定,就像当时的谷歌地图一样,谷歌地图具有颠覆性,因为它拍摄了街道图像。在那里,就其使用达成了共识解决方案。” Virginia Rodríguez在回答这个问题时向我们承认,“我再次询问了 ChatGPT,在我们的谈话中,这让我反思了这样一个事实 电话号码清单 :我们不应该将技术与技术的用途和用途混在一起。”重要的是要反思法规的意图,找到对用户透明的方法,并很好地理解(为了解释)它是如何处理的以及谁可以访问它们(学习能力)。” Virginia Rodríguez,CaixaBank Cyber​​soc 总监兼 ISMS 论坛董事会成员(照片:CaixaBank) 人工智能风险 关于使用人工智能产生的风险,Pérez Bes 解释说,“ 公民和公司对这项技术的迅速接受正在给公司及其信息的安全带来风险。”





他指出:“意识和意识再次成为主角,因为用户开始使用新技术,而无法分析其使用可能对组织产生的影响。” 在他看来,“这就是为什么控制当局的定位(如意大利担保人的情况)引起如此多的骚动并引发如此多的辩论的原因之一。” 努涅斯认为,“自动化决策已经在 1992 年的 LORTAD 立法者中得到体现,这是一个长期存在的问题,欧洲委员会和欧盟都深入讨论过这一问题。”欧盟和每个国家自己的国家监管机构。” 在他看来,“这方面的关键是要明确它们的用途和风险。如果您要做出的决定是在网站上展示一个或另一个广告,那么风险较低,但如果这些决定影响人们的权利和自由,例如拒绝抵押贷款或禁止进入某个国家,“那里必须控制那里。” 这就是为什么我们回到之前提到的“技术本身并不是问题,而是为什么要应用基于人工智能的技术。” 在罗德里格斯的例子中,她指出,“幸运的是,信息处理(即使是人工智能)不是在以太坊中进行的,所以我们已经学到了很多关于如何保护它的知识。

您需要登录后才可以回帖 登录 | 注册

本版积分规则

手机版|小黒屋|Quetzal Audio

GMT+9, 2025-2-25 06:49 , Processed in 0.995879 second(s), 18 queries .

Powered by Discuz! X3.5

Copyright © 2001-2025 Tencent Cloud.

快速回复 返回顶部 返回列表