
游戏公司考虑使用大语言模型AI监控开发者 引发热议
TinyBuild公司CEO谈AI在员工监控中的潜在应用
近日,TinyBuild公司(发行《你好邻居2》和《Tinykin》)的CEO在本月的Develop:Brighton大会上提到,部分游戏公司正在探讨利用大型语言模型AI(如ChatGPT)来监控其开发团队的员工。该技术可能被用来识别有害、过度疲惫或过度谈论自己的员工,从而提前采取干预措施。
“黑镜”风格的潜在监控方案
TinyBuild的老板亚历克斯·尼奇波尔奇克(Alex Nichiporchik)坦言,这一想法“有点像《黑镜》里的情节”。据WhyNowGaming报道,方案中将通过分析来自Slack、Zoom以及任务管理软件的消息转录(去除个人信息后)来发现员工的异常行为。AI聊天机器人会扫描这些信息,寻找可能的预警信号,以帮助公司提前识别“潜在的问题员工”。
公司否认现有实践,强调为紧急情况
针对外界对公司监控行为的猜测,尼奇波尔奇克在发给Kotaku的邮件中表示,这只是一个“假设性实验”,公司目前没有在对员工进行实际监控。“这部分内容是虚构的。没有人在对员工进行监控。”他还指出,“我讲述的场景是在公司遇到紧急情况时,比如某个团队负责人出现了疲惫,我们能够及时介入,解决问题。”
监控方式引发争议,暗示行为规范
通过语言特征监控员工
在演讲中,尼奇波尔奇克提出一种假设的方法:利用AI监控员工在办公沟通中使用“我”或“我自己”的频率,将过度自我表达的员工称为“时间吸血鬼”。他表示,“一旦这类员工离开公司,会议时间缩短,效率提升五倍。”(根据WhyNowGaming报道)
员工关系调查以识别潜在疲惫员工
另一种假设做法是调查员工最近与哪些同事有正面互动,并标记那些未被提及的同事。尼奇波尔奇克认为,这可以帮助公司“识别濒临 burnout(精疲力尽)的人”,及早采取干预措施,减轻团队成员的压力。
AI监控引发热议与批评
无论这些做法是否真实执行,都在网络引发了激烈讨论。有人认为,这种监控方式极具“反乌托邦”色彩。华纳兄弟动画工作室的作家米奇·迪耶(Mitch Dyer)在推特上评论称:“如果你不得不不断强调你的员工作监控有多么恐怖,那可能你自己才是问题所在。”
另一位评论者——加州大学圣克鲁兹分校的副教授玛蒂·布赖斯(Mattie Brice)则指出:“AI若被不加批判地使用,就会被掌控者利用,带来偏见和歧视。”
行业趋势与未来展望
近年来,生成式AI在企业中的兴趣持续升温,但也引发了行业内外的担忧。从音乐到游戏行业,创意领域的人士纷纷对AI的滥用表示担忧。好莱坞的编剧和演员也因担心AI被用来写剧本或复制形象,导致罢工事件持续升级。这显示,在技术快速发展的同时,行业规范与伦理问题亟需关注与讨论。
常见问答(FAQ)
Q: 这种AI监控员工的做法会合法吗?
A: 目前,许多国家对员工隐私和监控有严格规定,未经员工同意的监控可能违反法律。企业应在法律允许的范围内使用技术,并确保透明度。建议在具体实施前咨询法律专业意见。
Q: AI监控会不会影响员工的工作积极性?
A: 可能会产生负面影响。过度监控容易让员工感到被控制和不信任,反而降低工作动力和创造力。企业应平衡监管与尊重,建立良好的沟通和信任机制。