系统软件与软件安全

研究组关于张量程序自动生成的论文被OSDI 2024 (CCF A类会议)录用

发布时间:2024-09-26  浏览次数:70

研究组论文Enabling Tensor Language Model to Assist in Generating High-Performance Tensor Programs for Deep Learning被中国计算机学会推荐A类国际会议 OSDI 202418th USENIX Symposium on Operating Systems Design and Implementation)录用!本届会议共收稿282篇,录用49篇,录用率17.4%

 翟祎, 杨思嘉, 潘柯宇, 张任伟, 刘硕, 刘超, 叶子纯, 吉建民, 赵捷, 张昱*, 张燕咏*. Enabling Tensor Language Model to Assist in Generating High-Performance Tensor Programs for Deep Learning. 18th USENIX Symposium on Operating Systems Design and Implementation (OSDI 24), Santa Clara, CA, USA, July 10-12, 2024. 

代码见:https://github.com/zhaiyi000/tlm

论文简介见微信推文,并已申请发明专利。

北京时间2024710日线下在OSDI2024进行论文汇报和交流。

论文摘要:

高效获得高性能张量程序直存在挑战。倾向于提搜索效率的方法通常通过启发式约束来限制探索空间,该类法往往缺乏普适性;追求高性能的方法通常会扩探索空间,但所采的探索策略却不够效。

本文提出了于深度学习应的张量程序搜索框架。其核思想是在确保性能的同时,借助语言模型进行更高效的搜索,以便效生成性能张量程序。论将张量程序的搜索任务转化为语模型成任务。为此,设计了种语模型友好的张量语于记录决策信息进表示张量程序。在编译目标工作负载时,张量语模型(TLM)结合离线学习的知识和之前的决策,通过概率采样的式在当前决策空间中选择最佳决策。

于先前常的随机采样法,这种式更为效地探索搜索空间。TLM在效率和性能方面均表现出色。与完全调优的AnsorMetaScheduleTLM在匹配其性能的同时,编译速度提61倍。在与Roller相同的编译时间下,TLM的性能提升了2.25倍。


地址:安徽省合肥市蜀山区黄山路443号     电话:0551-63603804         

中国科学技术大学网络信息中心制作维护