内政部的工作人员表示,他们不记得在使用人工智能聊天机器人的实验中,他们在ChatGPT中输入了什么提示,文件显示没有保存实时记录。
今年5月,教育部告诉绿党参议员大卫·休布里奇(David Shoebridge),它正在四个部门使用该工具,以“实验和学习为目的”。
它当时表示,使用是“协调和监控的”。
澳大利亚《卫报》根据信息自由法获得的记录显示,作为测试的一部分,在ChatGPT或其他工具中输入的所有问题或“提示”都没有保留同期记录。
休布里奇表示,这引发了潜在的“严重安全问题”,因为员工似乎正在使用ChatGPT来调整代码,这是他们工作的一部分。
为了回应对2023年11月至2023年5月期间使用的所有提示的要求,该部门提供了一份调查问卷,关于工作人员记得使用了哪些查询以及用于什么目的。
工作人员在调查中表示,他们“记不清”自己输入的是什么提示,或者他们“记不清很久以前的情况了”。
其中一人写道:“我记不起细节,但内容非常笼统,没有涉及部门基础设施或数据的细节。”
注册澳大利亚卫报免费的上午和下午的电子邮件时事通讯,获取每日新闻综述
休布里奇表示,这些文件对ChatGPT的使用受到监控的说法提出了质疑,并对所提供答复的可靠性提出了严重质疑。
他说:“事实上,并没有任何系统可以记录民政事务人员在聊天系统中输入的信息。”
“鉴于民政事务局使用ChatGPT是为了实验和学习目的,缺乏记录保存措施进一步加剧了我们的担忧,即该部门没有设置明确的护栏和保护措施。”
截止到截稿日期,内政部没有发表评论。
员工们表示,他们使用的许多提示都与计算机编程有关,比如“调试通用代码错误”或“让chat gpt[原文如此]为工作编写脚本”。
其他人则使用ChatGPT“查找错误并纠正脚本”,并指出“答案并不总是100%准确”。
跳过过去的通讯推广通讯推广后
在进行实验的四个领域之一的信息计算机技术部门,一个人使用该工具来“解决与业务相关的问题,如解决客户端和服务器端脚本(如javascripts和escripts)的问题,以及如何用某种语言执行某些功能等”。
对基于大型语言模型的聊天机器人的安全担忧包括,作为提示的一部分输入的敏感信息可能被纳入模型的底层数据集,这意味着这些信息可能会在以后被其他用户的问题所暴露。
在网络风险服务方面,英国内政部(Home Affairs)的一名工作人员使用ChatGPT进行“技术研究”,可能涉及与“英国政府供应链安全政策”相关的问题。
另一名难民人道主义和安置部门的员工则试用了ChatGPT,以“生成讨论问题,为来自另一个国家的非营利组织的简报提供信息”。
进行实验的第四个部门是数据和经济分析中心。
今年5月,内政大臣迈克尔·佩祖罗(Michael Pezzullo)告诉参议院,ChatGPT或Bard的使用已被“禁止和暂停”,并呼吁整个政府对这项技术采取措施。
“我认为,个别警官不一定了解这些风险,也不一定有能力处理这些申请,他们不应该处于这样的境地:‘天哪!这会帮助我更快地完成工作。我要下载ChatGPT,’”他当时说。