开源AI可解释性研究工具Tracr-开源的操作系统有哪些

DeepMind的研究人员开源了TRAnsformer Compiler for RASP(Tracr),这是一种将程序转换为神经网络模型的编译器。Tracr 旨在研究转换器 AI 模型(如 GPT-3)的机械可解释性。

Tracr 是限制访问序列处理 (RASP) 语言的编译器,该语言的开发是为了推理基于变压器的神经网络的运行方式;特别是解释为什么他们会产生他们所做的结果。Tracr允许研究人员在RASP中开发程序,然后将其编译成可运行的神经网络模型。目标是为评估AI可解释性工具提供“基本事实”模型。

随着深度学习模型变得越来越大和复杂,解释它们如何以及为什么产生特定的输出变得越来越困难。对人工智能可解释性技术的研究正在进行中,并寻求多种途径。DeepMind团队开发了Tracr来帮助实现机械可解释性,它试图对深度学习模型进行“逆向工程”。编程中的类比是从二进制可执行文件对高级源代码进行逆向工程。

因此,Tracr的类比是提供一种评估机制解释器的方法,方法是从高级源代码开始并将其编译为二进制文件。如果解释器可以复制原始源代码,则证明解释器结果是可信的。

开源AI可解释性研究工具Tracr-开源的操作系统有哪些

Tracr源代码类比

这个类比非常贴切,因为实际上Tracr是一种高级编程语言RASP的编译器。RASP 是一种用于指定转换器模型计算图的语言;RASP 基元映射到转换器组件,例如嵌入和注意力。RASP的开发旨在通过抽象计算的细节来允许研究人员“像变压器一样思考”。

继续编程类比,DeepMind团队为变形金刚创建了一个称为craft的“汇编语言”。模型在电路级别在工艺中指定;也就是说,完整神经网络的子图。Tracr编译器将模型的RASP规范转换为工艺,然后从工艺转换为具有具体权重的最终模型。

为了演示Tracr的使用,该团队实现了几个模型。虽然仅解码器的转换器模型通常用于自然语言处理(NLP)任务,如文本摘要或问答,但DeepMind研究人员使用Tracr创建模型更简单的任务:计算输入序列中的标记数量,对数字序列进行排序,并检查平衡括号。

除了用作测试可解释性工具的工具外,研究人员还指出了Tracr的其他潜在应用。例如,可以编译模型部分的手动编码实现,并用于替换由传统训练方法生成的模型部分;这可能会提高整体模型性能。

免责声明:文章内容来自互联网,本站不对其真实性负责,也不承担任何法律责任,如有侵权等情况,请与本站联系删除。
转载请注明出处:开源AI可解释性研究工具Tracr-开源的操作系统有哪些 https://www.yhzz.com.cn/a/9090.html

上一篇 2023-04-20
下一篇 2023-04-20

相关推荐

联系云恒

在线留言: 我要留言
客服热线:400-600-0310
工作时间:周一至周六,08:30-17:30,节假日休息。