加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

信息安全提示:用人工智能找答案 多角度查证保平安

2023/02/13
1229
阅读需 6 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

近日人工智能AI)聊天机器人ChatGPT互联网上火红,据报道已有一亿用户,大部份用户都表示相比起传统搜索引擎只依据输入的查询来提供相关度高的网站,ChatGPT能让用户以人与人对话的方式提问然后输出响应,加上生成的答案十分精准及附有详细解释,省却用搜索引擎后还要自行查阅资料的时间。

虽然其开发者OpenAI表示免费版ChatGPT是在研究预览阶段,但它的受欢迎程度却标致着将AI及机器学习技术呈现至普罗大众面前的重大成功。 近日各大资讯科技公司都相继公布会把AI整合到其网上服务的计划:例如Microsoft会把比ChatGPT 更强大的AI技术与搜索引擎Bing及浏览器Edge整合; 另一搜索引擎巨头Google亦将于未来数周把其对话式AI服务Bard逐步加入到其产品中。 可见不久将来会有更多AI技术会整合到不同的网上服务,涉足我们的日常生活。

AI的普及应用,一方面让我们工作或生活上更省时便利,例如有人已利用ChatGPT编写程序或文章,能得出比真人更快、更少错误的程序,生成的文章内容亦很丰富及井井 有条; 但另一方面,也曾有不法分子利用ChatGPT制作钓鱼邮件内容,甚至编写恶意程序,纵使官方已加入安全机制禁止生成恶意内容,但已有网络犯罪分子开发出规避方法,并以网络犯罪服务方式贩卖,由此可见潜在安全问题亦不容忽视。

香港生产力促进局辖下的香港电脑保安事故协调中心(HKCERT)日前在最新一次年度信息安全展望简布会上也预测利用AI的攻击及网络犯罪服务将会 是2023年五大信息安全风险之一,当中更罗列多种不法分子如何利用AI进行攻击的可能情况,除上述提到的例子外,还包括AI 欺诈及毒害AI模型。 总结AI涉及的安全风险有以下几种:

数据私隐和保密:AI需要大量数据进行训练,其中可能包括敏感信息,如个人详细信息、财务信息和医疗记录。 这可能引发了隐私问题,因为模型可能会访问和生成敏感信息。

错误信息:AI为求产生的结果有连贯性及通顺,可能会编造虚假或误导性信息,用户惯性倚赖AI生成的资料可能会对事实有错误的认知。另外,信息的准确性亦会受到其所接受的训练数据影响,例如ChatGPT的训练数据只去到2021年,所以当问到谁是最近的世界杯冠军时,它会回答法国(2018年冠军),而不是阿根廷( 2022年冠军); 其他错误讯息的例子包括在Google宣传其聊天机器人Bard的广告中,被发现它在回答有关” 詹姆斯韦伯太空望远镜的问题中包含错误的信息。

偏见问题:AI的训练数据可能来自互联网,其中可能包含偏见和歧视。这可能导致模型产生使这些偏见和歧视的回应。 此外,不法分子亦可利用偏颇的数据,训练AI模型,令AI生成恶意的回应,此手法称为对抗性干扰。
版权问题:考虑第三方的权利都是很重要,例如由 ChatGPT输出的回应中可能涉及的受版权保护的资料的拥有人。 侵犯他人的权利,包括未经许可使用其受版权保护的资料,可能会导致法律责任。因此使用ChatGPT时,要考虑和尊重其开发者和其他人的知识产权,并确保对 ChatGPT 的响应的任何使用都符合适用的法律法规。

其实AI是一个中性的工具,本身并没有对错。 正如当你在ChatGPT问ChatGPT自身是否存在安全隐忧时,ChatGPT的最后回应是 : ”However, it is important for users and developers to be aware of these security concerns and take appropriate measures to mitigate them.” ,最终责任应该落在用家本身。 最后,当大家使用AI时,应该保持凡事核查的心态,从多个源头查证事实。

相关推荐

电子产业图谱