bitpie正版钱包|kdg
KBG管与JDG管区别有哪些? - 知乎
KBG管与JDG管区别有哪些? - 知乎首页知乎知学堂发现等你来答切换模式登录/注册镀锌钢管KBG管与JDG管区别有哪些?关注者6被浏览96,351关注问题写回答邀请回答好问题添加评论分享5 个回答默认排序武汉恒久远制管 关注JDG管与KBG管都是我们生活中经常要用到的,它们既能保护线路不受外界环境所影响而导致发生事故,还能保障我们日常用电的安全,可以说是线路及我们的好帮手。有很多朋友对JDG管与KBG管的区别有什么不同不是很了解,今天我们就来说一下这两种管有什么不同吧。JDG管介绍:JDG管是金属材质的,是一种电气线路最新型保护用导管,连接套管及其金属附件采用螺钉紧定连接技术组成的电线管路。耐腐蚀性能优秀:电力穿线管耐酸、碱、盐等化学溶剂腐蚀,遇油脂也不开裂;强度高、阻燃、抑烟、耐热、运用寿命长。产品优点:JDG管有非常好的防水性,绝缘性,抗拉性, 产品外表添加了防火阻燃剂,并加抗紫外线和避免老化作用之成分,构造为反扣型增加抗拉强度,不容易折断或者变形。KBG管介绍:KBG系列钢导管选用优质薄壁板材加工而成,双面冷镀锌全方位360°维护。管与管件联接不需再跨接地线,是针对吊顶,明装等电气线路设备工程而研发。契合现代节能环保的干流发展方向。被国内各大城市的商业、民用、共用等电线线路工程所选用,特别是临时或短期运用的建筑物。产品特点:KBG管拥有抗干扰,重量轻,价格便宜,施工方便等优点,是目前被使用最方便的管材。JDG管和KBG管区别一:连接方式不同JDG管为紧定式镀锌薄壁管:连接方式靠管件顶丝顶紧管道,达到紧密连接。KBG管为扣压式镀锌薄壁管:连接方式是用扣压钳子,将管道和管件压出小坑,达成紧密连接。JDG管和KBG管区别二:国标壁厚不同JDG:除了Φ16的管壁厚为1.5mm(壁厚允许偏差±0.08)以外,其余Φ20、Φ25、Φ32、Φ40、Φ50全部为1.6mm(壁厚允许偏差±0.08)。KGB:管壁厚除了Φ16、Φ20的壁厚是1.0mm(壁厚允许偏差±0.08),其他Φ25、Φ32、Φ40的壁厚都是1.2mm(壁厚允许偏差±0.10)。以上就是JDG管与KBG管的区别,如果有其他问题也可以在下方评论。发布于 2020-08-07 11:59赞同 81 条评论分享收藏喜欢收起智能化 关注大家好,我是薛哥。弱电工程中电线导管是为保证电缆线路安装工程的施工质量,促进电缆线路施工技术水平的提高,确保电缆线 路安全运行,常用的管有KBG\JDG\SC\PVC,对于这四种管,你都了解吗?下面看看常用的四种电线导管类型:①硬化聚氯乙烯管(PVC管)②扣压式薄壁钢管(KBG管)③紧定式薄壁钢管(JDG管)④焊接钢管(SC管)(1)PVC管材质要求管材里外应光滑,无凸棱凹陷、针孔、气泡,内外径应符合国家统一标准,管壁厚度应均匀一致。所用绝缘导管附件与配制品,如各种灯头盒、开关盒、插座盒、管箍、粘合剂等,套管的长度要满足管外径的3倍,并应使用配套的阻燃制品。阻燃型塑料管的管壁应薄厚均匀,无气泡及管身变形等现象。暗敷设如设计无要求均应使用中型以上导管。(2)KBG管材质要求导管上应标明每批产品的制造厂名称、阻燃标记、型号、外径尺寸、导管长度、性能标准编号等。线管内、外壁平滑,无明显气泡、裂纹及色泽不均等缺陷;内外表面没有凸棱及类似缺陷;管口边缘平滑,不损伤电线、电缆的绝缘层;KBG钢管应内外壁镀锌层应光亮、均匀,无破损脱落。管材壁厚、内外直径应均匀。(3)JDG管材质要求型号规格符合设计要求管材表面有明显不脱落的产品标识。金属内外壁镀层均匀完好无剥落、锈蚀等现象。管材连接套管及其金属附件内外壁表面光洁无毛刺、飞边、砂眼、气泡、裂纹、变形等缺陷。管材连接套管及其金属附件壁厚均匀管口边缘平整光滑,紧定螺钉符合产品设计要求螺纹整齐光滑配合良好。管材壁厚、内外直径应均匀。(4)SC管材质要求钢导管无压扁,内壁光滑。焊缝均匀,无劈裂、砂眼、棱刺和凹扁现象。导管无严重锈蚀。锁紧螺母外形完好无损,丝扣清晰,无翘曲变形。导管的管径、壁厚及均匀度。电线管为镀锌钢导管,KBG管为套接扣压式镀锌钢导管,JDG为套接紧定式镀锌钢导管,现在最常用的应为JDG管.JDG 管(套接紧定式镀锌钢导管、电气安装用钢性金属平导管)是一种电气线路最新型保护用导管,连接套管及其金属附件采用螺钉紧定连接技术组成的电线管路,无需做跨接地,焊接和套丝,是明敷暗敷绝缘电线专用保护管路的最佳选择。套接紧定式镀锌钢导管(JDG 导管)是取代PVC 管和SC 管等各类传统电线导管的换代产品,是建筑电器领域采用材料、新技术的一项突破性革新,JDG 管采用镀锌钢管和薄壁钢管的跨接接地线不应采用熔焊连接以及金属导管施工复杂、施工成本和材料成本高等特点,并同时针对PVC 管易老化和防火性能差及接地麻烦等缺点进行设计制造的,是电线电缆的保护神,尤其适用于智能建筑综合布线系统。JDG 管=规格外经为16-50mm。KBG 为扣压式镀锌薄壁电线管,其连接是用扣压钳子,将管道和管件压出小坑,紧密连接。JDG 为紧定式镀锌薄壁电线管,其连接靠管件顶丝顶紧管道,达到紧密连接。KGB 管壁厚与JDG 有很大区别JDG 除了16 的管壁厚为1.2 以外,其余全部为1.6。KBG 管壁厚和管大小有关。大于16 的也有1.2 的,更有的1.0 的也有,KBG 管是SC 管的更新换代产品 所以只需要考虑PVC 管和KBG 管 很多情况下两者都可以用 但是做人防和消防的配电、弱电管线用KBG 管 特别出入人防防护区的KBG 管要求壁厚不小于2.5mm SC 为焊接钢管,在明敷设时(包括地埋)内外壁要做防腐处理,SC 是规范上的焊管,而且是厚壁的,壁厚通常不小于3mm ,SC 是厚壁镀锌钢管,用于地下室电气敷管 TC 是电工管,用于地上电气敷管 以上两种管在混凝土暗敷时均不用做内防腐 kbg 套接扣压式电冷镀锌钢 导线管,采用优质冷轧带钢,经高精度焊管机高频焊接而成,双面 镀锌保护,壁厚均匀,焊缝光滑,管口边缘平滑无毛刺,穿线安全 快速 。特点以薄代厚重量轻,有效降低工程造价,搬运方便,内 焊缝光滑,防火、防触电能力好,屏蔽性能和抗干扰性能好,可用于 通讯、控制、网络综合布线穿管,产品分kbg 镀锌白管和kbg镀锌彩管。JDG 管和SC 管有区别JDG 是套接紧定式钢导管,套接紧定式镀锌钢导管(JDG 导管)是取代PVC 管和SC 管等各类传统电线导管的换代产品,是建筑电器领域采用材料、新技术的一项突破性革新,JDG 管采用镀锌钢管和薄壁钢管的跨接接地线不应采用熔焊连接以及金属导管施工复杂、施工成本和材料成本高等特点,并同时针对PVC 管易老化和防火性能差及接地麻烦等缺点进行设计制造的,是电线电缆的保护神,尤其适用于智能建筑综合布线系统。SC 是厚壁钢管SC 管是焊接钢管,俗称黑铁管,是厚壁钢管,用于暗敷设或强度要求高的场所,施工时多用在楼板墙内。发布于 2022-03-31 09:44赞同 3添加评论分享收藏喜欢
KDJ的详细图解和相关指示意义 - 知乎
KDJ的详细图解和相关指示意义 - 知乎切换模式写文章登录/注册KDJ的详细图解和相关指示意义股海老张大家下午好,我是老张,先看看老张今天的持仓盈利KDJ的定义:KDJ又称作随机指标,是一种很实用新颖的指标技术,开始被用于期货市场,后来被广泛用于股票中短期的趋势分析,也是我最常用的技术指标之一。KDJ以最高价,最低价,以及收盘价作为基本数据进行计算,得出的K值、D值、J值分别在指标的坐标上面形成一个点,链接无数个这样的点,形成一个完整的、能够反应价格波动趋势的指标,它是利用价格波动的真实幅度来反应价格走势的强弱和超买超卖现象。KDJ的计算方法:对于每一个交易日求RSV(称为未成熟随机值)RSV=(收盘价-最近N日最低价)/(最近N日最高价-最近N日最低价)*100%当日K值=2/3*前一日K值+1/3*当日RSV当日的D值=2/3*前一个交易日的D值+1/3*当日的K值当日的J值=3*D值-2*K值如果前一个交易日没有K值和D值,我们则用50代替。这个计算方法大家看看就可以了,对于我们散户不理解一点也不影响后面的使用,完全不用去深层次理解它的意义。KDJ主要是通过K线、D线、J线三条曲线组成。如图中所示,KDJ不同软件显示的颜色也不一样。我们先看看同花顺,在图中,黄色的为K线,绿色的为D线,紫色的为J线。其他的软件如果有不同的颜色,我教大家可以这么看,你找到一波上升的KDJ的趋势,如图所示:最上面的一根线,肯定是J线,中间的第二根,肯定是K线,最下面的第三根,肯定是D线。如图中1、2、3排列的位置所示。KDJ判断的大体周期:我们根据KDJ的取值周期不同,可以分为当日KDJ、周KDJ、月KDJ、60分钟KDJ、30分钟KDJ、15分钟KDJ,还可以有自己设定的周期的KDJ,大家要选好适合自己周期的指标。K值和D值变化的幅度范围是0-100之间,50为多空均衡线,我们也可以称之为零轴,J值是可以大于100的,也可以为负值。如图中所示:同花顺把J线的100以上的部分和0以下的部分给去掉了。大家可以看平的那部分就是J线100以上和负值的部分。K线变化速度适中D线变化速度最慢J线变化速度最快K线的数值在90以上为超买,数值在10以下为超卖D线数值在80以上为超买,数值在20以下为超卖总体是这样:80以上为超买区,20以下为超卖区,如图中所示:当J线从零轴以下突破K线和D线时,说明股价弱势逐步减弱,股价短期将向上,投资者可以考虑少量建仓。如图中所示:底部金叉,少量建仓。当J线向上穿越K线和D线之后,迅速向上运动,说明股价有一波较大的上涨行情,投资者可以考虑加仓或者持股待涨。如图所示:金叉之后,迅速向上,突破零轴,可以考虑加仓或者持股待涨。当J线经过一段快速向上的运动之后,在超买区向下掉头的时候,说明股价短期上涨过快,可能会进入一波调整期,投资者可以考虑减仓。如图中所示。当K线也开始从高位向下掉头的时候,说明中短期上涨行情已经结束,投资者应该考虑清仓。如图中箭头所指的黄线从高位区向下的时候说明中短期行情结束了,可以考虑清仓。当K、D、J三条线同时从高位向下,并且J线穿越K线和D线,这叫做KDJ死叉,这说明股价下跌趋势已经形成,投资者如果还没有清仓的,应该立即清仓,并且持币观望。总体大家可以看看下面这张图:底部,J线拐头上翘,可以少量建仓5%-10%;然后继续向上,KDJ底部形成金叉,然后我们建仓20-40%;然后KDJ三条线继续向上运动,穿越零轴,我们加仓20-40%或者持股待涨;然后继续向上,当J线从高位超买区拐头开始向下的时候,我们可以考虑开始减仓20-40%。当KDJ从高位形成死叉并同时向下,我们应该立即清仓。当KDJ三条线同时向下,如果之前还没有清仓的立即清仓并且持币观望。大家可以看出,我刚才说的向上建仓的部分和向下清仓的部分比例是1:2。就是清仓时候的速度是建仓时候速度的两倍。因为清仓的倍数是建仓的两倍,可以轻易的锁定利润。下面说说KDJ背离。当股价K线一浪比一浪高,而KDJ在图形上整体是一浪比一浪低的走势,我们称为顶背离,顶背离一般出现在高位,建议卖出。当股价K线图一浪比一浪低,而KDJ在图形上整体是一浪比一浪高的走势,叫做底背离,底背离一般出现在底部,建议买入。下面我举个例子说明一下什么是顶背离和底背离。下图是创业板2015年11月12日到2015年11月26日的K线图的走势,在图中创业板指在11月26日创了新高,而KDJ的值并没有创新高,这种叫KDJ顶背离。大家可以看下图。在上方的箭头K线图创了新高,在下方的箭头KDJ一浪反而比一浪低,这个就是我们说的KDJ顶背离。这里注意一下,同花顺把J线超出一百的部分给截取了,这里之前我也提过。KDJ顶背离的意义是什么呢?KDJ顶背离的意义是:上涨的动能不足,多头力量衰竭,有下跌的趋势。我们再看看底背离,巢东股份600318在2016年1月14日到2016年1月27日的K线图。大家请看图中,在上方箭头K线的走势是股价一浪比一浪低。然后在下方KDJ的部分,KDJ反而是一浪比一浪高,这个就是明显的底背离。低背离的意义是:下跌的力量衰竭,有上涨的趋势。然后我们再说说KDJ钝化问题。什么是KDJ钝化呢?首先KDJ钝化还有高位钝化和低位钝化之分。KDJ高位钝化是指当KDJ处于高位的时候,也就是超买区域的时候,股票当天上涨,而KDJ指标数值上变化不明显,向上变化很小甚至还有可能向下。相反KDJ低位钝化,是指当KDJ处于低位,超卖区域的时候,股票当天继续下跌,而KDJ指标上面变化很小,甚至还有可能上升。总结就是:当KDJ处于超买和超卖区域的时候,股价依然在活跃继续上涨或者继续向下,而指标上面没有明显的变化,甚至走出了相反的走势的现象,我们称之为钝化。大家可以看图,这张图是KDJ高位钝化的解释图。大家可以看方框的部分,创业板指不断的创出新高,处于强势区域,而KDJ呢,处于高位超买区域,但是变化很小,偶尔小幅回调一下,还会骗线。当KDJ高位钝化之后,KDJ的指示作用就会大减了,没有多少指示意义,而且还容易出错。下面这张图是KDJ低位钝化。当KDJ低位钝化的时候,指示作用也很弱,并且还会发出错误的指示。大家可以看图:K线上股价一直在下降并且一直很弱势,而KDJ在低位的波动幅度很小,偶尔还会给出金叉,这时候的金叉全是错误的信号。非常错误,给人错误的指示。为什么会出现KDJ钝化呢?因为KDJ是一种很敏感的指标,能短线给出很明确的买入和卖出信号,但是市场变化莫测,而KDJ过于敏感,所以稍微有些波动,就可能给出一些错误的信号,这里我们首先要解决的一个问题就是KDJ钝化问题。下面我给出几个解决KDJ钝化问题的方法:首先第一种方法,把周期放大,看看有没有形成共振,比如你平时参考的是日KDJ,如果处于钝化阶段,并且钝化的时候发出反向的信号,比如弱势的时候给出金叉,我们就需要去看一下3日的KDJ线,或者5日KDJ线,然后看下放大的周期有没有信号共振,如果没有,则忽略这次信号,如果产生了共振,我们则要重视这个信号。下面举例说明一下。大家可以双击箭头2所指的位置修改KDJ的周期,默认的三个参数是(9,3,3)。如果你想看3日的KDJ线,就可以修改为(27,3,3)。只需要修改第一个数字,不需要修改后面两个数字。刚才我们看到这张图,是昇兴股份在2015年6月到7月的走势图,图中下方KDJ是低位钝化,并且发出了5次买入信号,大家可以看我图中的5个箭头。然后大家再看看3日和5日的KDJ,你就双击剪头所指的KDJ(9,3,3)这里修改为(27,3,3)或者(45,3,3)。一般放大指标周期选择放大3倍4倍5倍,不要放大过大,比如说放大十天或更长,就没有多少意义。一般放大周期不要放大非常长,放大为3倍4倍5倍已经足够了。然后我选择了修改为3日的KDJ,大家看图,图中我已经修改过了。在箭头所指的方框里面已经没有了金叉也没有了买入信号。大家可以看看2个方框中的KDJ的图形的对比。修改为(27,3,3)也就是3日的KDJ的时候,5次金叉已经完全没有了,可以看出这5次都是骗线,都是假信号,趋势并没有好转。第二个解决KDJ钝化的方法,也是非常好的方法,是结合MACD看共振,我称之为MACD共振法,大家可以看图,还是昇兴股份,在相同的这段时间,然后我们看看这段时间KDJ是怎么走的。大家可以看出图中,KDJ一直显示的是弱势,完全没有任何一次金叉,在方框中,很明显的两个对比可以看出来。就是在KDJ钝化并且发出错误信号的时候,MACD的信号依旧很明确,并且全指示向下。总体就是,当KDJ发生钝化的时候,如果MACD没有给出共振的信号,我们则忽略KDJ发出的任何信号。第三个解决KDJ钝化的方法,K线浪形法。所谓K线浪形法,我们之前说过,在高位和低位的时候,才会发生KDJ钝化,那么在高位的时候和低位的时候,往往K线上面表现的是上升波浪和下降波浪,比如在上升波浪中回调的时候,KDJ容易给出死叉的信号,但是这个死叉,我们就不用过多的考虑。大家请看图。上升波浪回调的两个点位,KDJ一个接近死叉,一个直接给出死叉,这时候这两个信号是不符合K线浪形的信号的,不用过多的考虑。解决KDJ钝化,还有一些其他的方法,这一节课我就不继续举例了,以后再给大家补充。下面我再说说KDJ共振选股法。之前说KDJ钝化的时候我已经提过一次解决KDJ钝化的方法,就是周期放大,其实这里面蕴藏这一种选股方法叫周期共振选股法。总体意思就是当短周期的KDJ底部金叉和长周期的底部金叉,同时出现的时候,这时候的买入信号比较准确。这里有几个注意的事项:1.短周期和长周期,不能差距太久,比如短周期是日KDJ,而长周期,你不能选择月KDJ,这样差距太远了,一般建议选择,3倍,5倍,7倍,比如你选日KDJ为基准,然后你选择的长期KDJ,可以是3日的KDJ,也可以是5日的KDJ,或者一周的KDJ。2.建仓之后,短期KDJ和长期KDJ,会有不同的走势,短期KDJ会比较敏感,然后经常发出相反的卖出信号,但是长期的KDJ并没有发出这个信号,我们应该选择长周期的KDJ作为清仓的点位,然后短周期KDJ发出卖出信号的时候,我们只是做仓位调整。3.修改KDJ参数的时候,三日的建议修改为(27,6,6,)五日的建议修改为(45,6,6,)后两位数字不能修改的太大,太大之后,就失去了KDJ本身敏感的特性了。具体我举例说明。这张图是创业板指在2015年9月18日发出KDJ的底部金叉,这是日KDJ。然后,我们修改参数,把单日的KDJ修改为3日的KDJ和5日的KDJ。之前我给大家提过怎么修改,双击图中的KDJ(9,3,3)这个位置,就可以进行修改了。然后修改之后大家可以看到我们修改为3日的KDJ之后参数变为(27,3,3),然后我们可以看出,同样在9月18号,3日的KDJ也形成了底部金叉,并且是KDJ的2次底部金叉。然后我们继续修改为5日的KDJ。同样,也在9月18号形成了底部二次金叉。这时候是日KDJ,3日KDJ,5日KDJ形成共振,信号更加保险,可以考虑买入,并且这个时候的买入信号是非常靠谱的。然后大家可以看出,创业板指9月18日之后是很长一段时间的反转,并不是反弹了。在9月18日的金叉之后,5日的KDJ只在后面1、2两个位置出现了死叉,并且第二次死叉是属于高位二次死叉,并且第二个死叉和短时的KDJ形成共振,属于共振的死叉,这个死叉我们就作为清仓信号,你就躲过接下来的暴跌了。发布于 2019-12-25 16:54KDJ指标股市指标赞同 20516 条评论分享喜欢收藏申请
JDG管和KDG管的区别 - 知乎
JDG管和KDG管的区别 - 知乎首发于JDG/KBG穿线管及配件切换模式写文章登录/注册JDG管和KDG管的区别正通金属制品生产销售JDG金属管/电缆桥架/抗震支架及相关配件的专业公司KBG管又名“套接扣压式镀锌电线钢导管、扣压式镀锌薄壁管”,JDG又名“套接紧定式镀锌电线钢导管、紧定式镀锌薄壁管”。现在市场上常用的电线钢导管为KBG管,JDG管是一种电气线路最新型保护电线用钢导管,连接套管及其金属附件采用螺钉紧定连接技术组成的电线管路。使用JDG管不用再做跨接地,焊接和套丝,是明敷暗敷绝缘电线专用保护管路的良好选择。JDG电线钢导管是取代PVC管和SC管等各类传统电线导管的产品,是建筑电气领域采用新材料、新技术的一项突破性的创新,JDG管采用镀锌钢管和薄壁钢管的跨接接地线不需要用熔焊连接,金属导管施工繁琐、施工成本和材料成本高,JDG/KBG管可以起到很好的替代革新作用。正通金属,JDG/KBG厂家JDG电线钢导管、KBG电线钢导管的常用管径规格有16、20、25、32、40、50(单位:mm)在与电线管路连接应注意几个问题:JDG管电线管路与金属外壳采用喷塑等防腐处理的柜/箱体连接时,连接处应设置跨接地线。JDG管电线管路与接地线不应熔焊连接。JDG管电线管路,不应作为接地线的接续导体。JDG电线钢导管、KBG电线钢导管区别连接方式不同KBG为扣压式镀锌薄壁电线钢导管,其连接是用扣压钳子,将管道和管件压出小坑,紧密连接。JDG管是紧定式镀锌薄壁电线钢导管,连接的方式是靠带钉管件顶丝钉紧管道,以达到紧密连接。国标壁厚不同KBG管除了16型号是1.0mm其他型号均为1.2mm;JDG管除了16型号是1.2mm其他型号均为1.6mm当然由于施工环境施工要求的复杂化 一般来说都会根据施工方具体的要求工厂会进行定制化生产以满足不同的需求。发布于 2023-07-18 13:01・IP 属地浙江jdg金属穿线管kbg金属穿线管赞同2 条评论分享喜欢收藏申请转载文章被以下专栏收录JDG/KBG穿线管及配件金属穿线管及配件相关知
KDJ指标_百度百科
标_百度百科 网页新闻贴吧知道网盘图片视频地图文库资讯采购百科百度首页登录注册进入词条全站搜索帮助首页秒懂百科特色百科知识专题加入百科百科团队权威合作下载百科APP个人中心KDJ指标播报讨论上传视频期货和股票市场上的技术分析工具收藏查看我的收藏0有用+10KDJ指标中文名叫随机指标,是一种相当新颖、实用的技术分析指标,它起先用于期货市场的分析,后被广泛用于股市的中短期趋势分析,是期货和股票市场上最常用的技术分析工具。随机指标KDJ一般是用于股票分析的统计体系,根据统计学原理,通过一个特定的周期(常为9日、9周等)内出现过的最高价、最低价及最后一个计算周期的收盘价及这三者之间的比例关系,来计算最后一个计算周期的未成熟随机值RSV,然后根据平滑移动平均线的方法来计算K值、D值与J值,并绘成曲线图来研判股票走势。中文名KDJ指标外文名Stochastic Indicator别 名随机指标创始人George C. Lane博士特 点新颖、实用的技术分析指标目录1起源2计算方法3指标原理4运用范围5应用要则6使用技巧7注意事项8指标分析9实战应用▪实战研判▪应用经验▪选股方法10操作手法11指标总结12钝化问题13特殊分析14使用要领15中期运用16临界钝化现象起源播报编辑KDJ指标的中文名称又叫随机指标,最早起源于期货市场,由乔治·莱恩(George Lane)首创。随机指标KDJ最早是以KD指标的形式出现,而KD指标是在威廉指标的基础上发展起来的。不过KD指标只判断股票的超买超卖的现象,在KDJ指标中则融合了移动平均线速度上的观念,形成比较准确的买卖信号依据。在实践中,K线与D线配合J线组成KDJ指标来使用。KDJ指标在设计过程中主要是研究最高价、最低价和收盘价之间的关系,同时也融合了动量观念、强弱指标和移动平均线的一些优点。因此,能够比较迅速、快捷、直观地研判行情,被广泛用于股市的中短期趋势分析,是期货和股票市场上最常用的技术分析工具。计算方法播报编辑KDJ的计算比较复杂,首先要选择周期(n日、n周等),再计算当天的未成熟随机值(即RSV值),然后再计算K值、D值、J值等。(1) RSV的计算公式为:公式中,C为当天的收盘价;Ln为之前n日内的最低价;Hn为之前n日内的最高价。(2) 某一天的K值=2/3×前一日K值+1/3×当日RSV,即Ki和RSVi分别表示某一天当天的K值和RSV值;Ki-1表示前一天的K值,若无前一天的K值,则用50来代替。(3) 某一天当天的D值=2/3×前一日D值+1/3×当日K值,即Di和Ki分别表示当天的D值和K值;Di-1表示前一天的D值,若无前一天的D值,则用50来代替。(4) J值=3×当日K值-2×当日D值,即例:手中有某只股票30日的数据,以9日为周期,想计算第9天的KDJ值,计算方法为(1) 先计算第9天当天的RSV值:RSV = (C−L) ÷ (H−L) × 100公式中C为第9天当天的收盘价;L为从第1天到第9天这9天内的最低价;H为从第1天到第9天这9天内的最高价。(2) 计算第9天的K值:K值=2/3×第8日K值+1/3×第9日RSV第8日K值用50代替(3) 计算第9天的D值:D值=2/3×第8日D值+1/3×第9日K值第8日D值用50代替(4) 计算第9天的J值:J值=3×第9日K值-2×第9日D值KDJ指标(5) 有了第9天的K值和D值,则可以进一步计算第10天的K值、D值和J值,再用第10天的K值和D值计算出第11天的K值、D值和J值,以此类推。KDJ指标KDJ指标指标原理播报编辑随机指标KDJ是以最高价、最低价及收盘价为基本数据进行计算,得出的K值、D值和J值分别在指标的坐标上形成的一个点,连接无数个这样的点位,就形成一个完整的、能反映价格波动趋势的KDJ指标。它主要是利用价格波动的真实波幅来反映价格走势的强弱和超买超卖现象,在价格尚未上升或下降之前发出买卖信号的一种技术工具。它在设计过程中主要是研究最高价、最低价和收盘价之间的关系,同时也融合了动量观念、强弱指标和移动平均线的一些优点,因此,能够比较迅速、快捷、直观地研判行情。由于KDJ线本质上是一个随机波动的观念,故其对于掌握中短期行情走势比较准确。运用范围播报编辑期货、股票、基金、电子现货、证券应用要则播报编辑KDJ随机指标反应比较敏感快速,是一种进行中短期趋势波段分析研判的较佳的技术指标。一般对做大资金大波段的人来说,一般当月KDJ值在低位时逐步进场吸纳;主力平时运作时偏重周KDJ所处的位置,对中线波段的循环高低点作出研判结果,所以往往出现单边式造成日KDJ的屡屡钝化现象;日KDJ对股价变化方向反应极为敏感,是日常买卖进出的重要方法;对于做小波段的短线客来说,30分钟和60分钟KDJ又是重要的参考指标;对于已指定买卖计划即刻下单的投资者,5分钟和15分钟KDJ可以提供最佳的进出时间。使用技巧播报编辑1.K与D值永远介于0到100之间。D大于80时,行情呈现超买现象。D小于20时,行情呈现超卖现象。2.上涨趋势中,K值大于D值,K线向上突破D线时,为买进信号。下跌趋势中,K值小于D值,K线向下跌破D线时,为卖出信号。3.KD指标不仅能反映出市场的超买超卖程度,还能通过交叉突破发出买卖信号。4.KD指标不适于发行量小、交易不活跃的股票,但是KD指标对大盘和热门大盘股有极高准确性。5.当随机指标与股价出现背离时,一般为转势的信号。6.K值和D值上升或者下跌的速度减弱,倾斜度趋于平缓是短期转势的预警信号。 [1]注意事项播报编辑随机指标虽然克服了移动平均线系统的收盘价误区,但是它本身还有难以克服的缺陷和自身局限性。因此在利用随机指标来决定股票的投资策略时应该注意以下几个问题。1.股价短期波动剧烈或者瞬间行情幅度太大时,KDJ信号经常失误也就是说投机性太强的个股KD值容易高位钝化或低位钝化。此外随机指标对于交易量太小的个股不是很适用,但对于绩优股,准确率却是很高。同时还应该注意的是随机指标提供的股票买卖信号均有或多或少的死角发生,尤其是个股表现受到基本面、政策面及市场活跃程度的影响时,在任何强势市场中,超买超卖状态都可能存在相当长的一段时期,趋势逆转不一定即刻发生。既随机分析所能得出的最强信号之一是偏差,也就是说K值在80以上时股价还有可能进一步上升,如果投资者过早的卖出股票,将会损失一些利润;K值在20以下时,股价还有可能进一步下跌,如果投资者过早的买进股票有可能被套。此时KDJ指标参考价值降低,投资者应该因时因势分析,同时参考其它指标与随机指标结合起来使用。2.J值可以为负值,也可以超过100。比如在前面背驰现象所举的案例中就出现了J值大于100或小于0。出现这种情况主要缘于J线和K、D相比较更为灵敏一些。3.因为随机指标提供的买卖信号比较频繁,投资者孤立的依据这些交叉突破点来决定投资策略,则依然存在较大的风险。因此使用K、D线时,要配合股价趋势图来进行判断。当股价交叉突破支撑压力线时,若此时K、D线又在超买区或超卖区相交,KD线提供的股票买卖信号就更为有效。而且,在此位上K、D来回交叉越多越好。4.当K值和D值上升或下跌的速度减弱,倾斜度趋于平缓是短期转势的预警信号。这种情况对于大盘热门股及股价指数的准确性较高。而对冷门股或小盘股的准确性较低。5.KDJ指标比RSI准确率高,且有明确的买、卖点出现,但K、D线交叉时须注意“骗线”出现,主要因为KDJ指标过于敏感且此指标群众基础较好,所以经常被主力操纵。6.K线与D线的交叉突破在80以上或20以下时较为准确。当这种交叉突破在50左右发生时,表明市场走势陷入盘局,正在寻找突破方向。此时,K线与D线的交叉突破所提供的买卖信号无效。综上所述,可以这样认为,随机指数在设计中充分考虑价格波动的随机振幅与中短期波动的测算,使其短期测市功能比移动平均线更加准确有效,在市场短期超买超卖的预测方面又比强弱指数敏感,同时该指标又能够提供出明确的买卖点。因此,这一指标被投资者广泛采用。虽然说,随机指标可以为短线投资 [2]提供简便直接快捷有效的投资参考依据,但是,作为一个投资者应该明白,成功地使用随机指标的关键在于将随机指标分析与其他的技术指标或分析方法结合起来使用。指标分析播报编辑面对变幻莫测的中国股市行情,学会并准确利用相关技术指标进行股票分析就显得很有必要,它可以帮助我们更好地抓住规律,更好地着手操作。今天就给大家从五个方面讲解一下炒股的入门知识关于KDJ指标的分析。第一个方面,KD指标的背离。在KD处在高位或低位,如果出现与股价走向的背离,则是采取行动的信号。第二个方面,J指标取值超过100和低于0,都属于价格的非正常区域,大于100为超买,小0为超卖。第三个方面,KD的取值。KD的统一取值范围是0~100,我们可以将其划分为3个区域:80以上为超买区,20以下为超卖区,其余为徘徊区。但是这里股票投资者需要注意的是这种划分只是一个信号提示,不能完全按这种分析的方法进行操作。第四个方面,KD指标的交叉。K与D的关系就如同股价与MA的关系一样,也有死亡交叉和黄金交叉的问题。第五个方面,KD指标曲线的形态。当KD指标在较高或较低的位置形成了头肩形和多重顶(底)时,是采取行动的信号。这里股票投资者同样需要注意的是,这些形态一定要在较高位置或较低位置出现,位置越高或越低,结论越可靠。实战应用播报编辑KDJ常用的默认参数是9,就我个人的使用经验而言,短线可以将参数改为5,不但反应更加敏捷迅速准确,而且可以降低钝化现象,一般常用的KDJ参数有5,9,19,36,45,73等。实战中还应将不同的周期综合来分析,短中长趋势便会一目了然,如出现不同周期共振现象,说明趋势的可靠度加大。实战研判(1 )K线是快速确认线——数值在90以上为超买,数值在10以下为超卖;D线是慢速主干线——数值在80以上为超买,数值在20以下为超卖;J线为方向敏感线,当J值大于90,特别是连续5天以上,股价至少会形成短期头部,反之J值小于10时,特别是连续数天以上,股价至少会形成短期底部。(2) 当K值由较小逐渐大于D值,在图形上显示K线从下方上穿D线,所以在图形上K线向上突破D线时,俗称金叉,即为买进的讯号。实战时当K,D线在20以下交叉向上,此时的短期买入的信号较为准确;如果K值在50以下,由下往上接连两次上穿D值,形成右底比左底高的“W底”形态时,后市股价可能会有相当的涨幅。(3) 当K值由较大逐渐小于D值,在图形上显示K线从上方下穿D线,显示趋势是向下的,所以在图形上K线向下突破D线时,俗称死叉,即为卖出的讯号。实战时当K,D线在80以上交叉向下,此时的短期卖出的信号较为准确;如果K值在50以上,由上往下接连两次下穿D值,形成右头比左头低的“M头”形态时,后市股价可能会有相当的跌幅。(4)通过KDJ与股价背离的走势,判断股价顶底也是颇为实用的方法:(A) 股价创新高,而KD值没有创新高,为顶背离,应卖出; (B) 股价创新低,而KD值没有创新低,为底背离,应买入;需要注意的是KDJ顶底背离判定的方法,只能和前一波高低点时KD值相比,不能跳过去相比较。应用经验(1 )在实际操作中,一些做短平快的短线客常用分钟指标,来判断后市决定买卖时机,在T+0时代常用15分钟和30分钟KDJ指标,在T+1时代多用30分钟和60分钟KDJ来指导进出。几条经验规律总结如下:(A ) 如果30分钟KDJ在20以下盘整较长时间,60分钟KDJ也是如此,则一旦30分钟K值上穿D值并越过20,可能引发一轮持续在2天以上的反弹行情;若日线KDJ指标也在低位发生交叉,则可能是一轮中级行情。但需注意K值与D值金叉后只有K值大于D值20%以上,这种交叉才有效;(B) 如果30分钟KDJ在80以上向下掉头,K值下穿D值并跌破80,而60分钟KDJ才刚刚越过20不到50,则说明行情会出现回档,30分钟KDJ探底后,可能继续向上;(C ) 如果30分钟和60分钟KDJ在80以上,盘整较长时间后K值同时向下交叉D值,则表明要开始至少2天的下跌调整行情;(D ) 如果30分钟KDJ跌至20以下掉头向上,而60分钟KDJ还在50以上,则要观察60分钟K值是否会有效穿过D值(K值大于D值20%),若有效表明将开始一轮新的上攻;若无效则表明仅是下跌过程中的反弹,反弹过后仍要继续下跌;(E ) 如果30分钟KDJ在50之前止跌,而60分钟KDJ才刚刚向上交叉,说明行情可能会再持续向上,仅属于回档(F ) 30分钟或60分钟KDJ出现背离现象,也可作为研判大市顶底的依据,详见前面日线背离的论述;(G ) 在超强市场中,30分钟KDJ可以达到90以上,而且在高位屡次发生无效交叉,此时重点看60分钟KDJ,当60分钟KDJ出现向下交叉时,可能引发短线较深的回档;(H)在暴跌过程中30分钟KDJ可以接近0值,而大势依然跌势不止,此时也应看60分钟KDJ,当60分钟KDJ向上发生有效交叉时,会引发极强的反弹。(2) 当行情处在极强极弱单边市场中,日KDJ出现屡屡钝化,应改用MACD等中长指标;当股价短期波动剧烈,日KDJ反应滞后,应改用CCI,ROC等指标;或是使用SLOWKD慢速指标;(3) KDJ在周线中参数一般用5,周KDJ指标见底和见顶有明显的提示作用,据此波段操作可以免去许多辛劳,争取利润最大化,需提示的是一般周J值在超卖区V形单底上升,说明只是反弹行情,形成双底才为可靠的中级行情;但J值在超买区单顶也会有大幅下跌的可能性,所以应该提高警惕,此时应结合其他指标综合研判;但当股市处在牛市时,J值在超买区盘中一段时间后,股价仍会大幅上升。选股方法在股票市场中要赚钱,首先要做好选股工作。怎样才能选好股?归纳起来有六个方面,即:K线形态、均线、技术指标、成交量、热点及主力成本。本期先谈周线KDJ与日线KDJ共同金叉选股法。日线KDJ是一个敏感指标,变化快,随机性强,经常发生虚假的买、卖信号,使投资者根据其发出的买卖信号进行买卖时无所适从。运用周线KDJ与日线KDJ共同金叉选股法,就可以过滤掉虚假的买入信号,找到高质量的成功买入信号。周线KDJ与日线KDJ共同金叉选股法的买点选择可有如下几种:第一种买入法:打提前量买入法。在实际操作时往往会碰到这样的问题:由于日线KDJ的变化速度比周线KDJ快,当周线KDJ金叉时,日线KDJ已提前金叉几天,股价也上升了一段,买入成本已抬高。激进型的投资者可打提前量买入,以求降低成本。打提前量买入法要满足的条件是:①收周阳线,周线K、J两线勾头上行将要金叉(未金叉)。②日线KDJ在这一周内发展金叉,金叉日收放量阳线(若日线KDJ金叉当天,当天成交量大于5日均量更好。)第二种买入法:周线KDJ刚金叉,日线KDJ已金叉买入法。第三种买入法:周线K、D两线“将死不死”买入法。此方法要满足的条件是:①周KDJ金叉后,股价回档收周阴线,然后重新放量上行。②周线K、D两线将要死叉,但没有真正发生死叉,K线重新张口上行。③日线KDJ金叉。用此方法买入股票,可捕捉到快速强劲上升的行情。KDJ指标在各类软件中的颜色:K线为白色,D线为黄色,J线为紫色。操作手法播报编辑1.当KDJ三个值整体处于20以下的话,显示市场为超卖区;如果整体处于80以上的话则代表市场显示为超买区;在这之间的话则显示买卖平衡,变化趋势不是很明显。2.如果KDJ三者的值都位于50以上的话,则市场此时显示为多头市场,行情有上涨的趋势;如果三者都位于50以下的话,则显示为空头市场,行情有下降的趋势。3.当K值大于D值的时候,行情趋势上涨,K线向上突破D线时,显示买入的信号,反之K线向下突破D值的时候,显示卖出的信号。4.当KDJ指标与K线图的走势呈现相反的趋势,代表行情可能即将出现反转的信号,另当K线和D线的变化趋势突然减弱也是行情反转的预期信号。5.根据KDJ三条线的移动速度可以判断D线的市场敏感度比较小,J线的市场敏感度是最大的。 [3]指标总结播报编辑基本搜索投资者往往会在指标运用过程中产生这样的疑惑:有时指标严重超买,价格却继续上涨;有时指标在超卖区钝化十几周而价格仍未止跌企稳。实际上,投资者在这里混淆了指标与价格的关系。指标不能决定市场的走向,价格本身才决定指标的运行状况。价格是因,指标是果,由因可推出果,由果来溯因则是本末倒置。事实上,最能有效体现市场行为的是形态,投资者首先应当从技术形态中分析市场参与者的心理变化并服从市场。在涨跌趋势未改变之前,不要试图运用指标的超买、超卖或钝化等来盲目断定市场该反弹、该回调了。所以我们应当灵活地运用KDJ指标,充分发挥其辅助参考作用。钝化问题播报编辑KDJ指标是技术分析人员经常使用的一种指标,此种指标的优点在于反应敏感,能给出非常明显的进货信号和出货信号,如黄金交叉进货,死亡交叉出货,使用者易于掌握,只要看信号进货出货就可以了。但KDJ指标又有非常明显的不足,如它的反应过于敏感,使使用者不是进货太早被套牢,就是出货太早被轧空,也就是所谓KDJ指标的低位钝化和高位钝化问题。很多KDJ指标的使用者常常抱怨KDJ指标的骗线问题,使用起来经常会有上当受骗的感觉,认为KDJ指标是庄家拿来故意骗人的,实际上是因为他们没能处理好钝化问题。KDJ指标是一种非常好的指标,但是它有一个使用范围,通常股价或股指在一个有一定幅度的箱形之中运动,KDJ指标将发出非常准确的进货信号和出货信号。在此情况下,按照低位黄金交叉进货,高位死亡交叉出货,准确度非常高,投资者按此方法操作,可以胜多输少。笔者通过多年的实践操作经验和教学经验,总结出如下方法,可以比较有效地解决KDJ指标的钝化和骗线问题。1.放大法。因为KDJ指标非常敏感,因此经常给出一些杂信,这些信号容易误导投资者,认为产生进货信号或出货信号,因此操作而失误。如果我们放大一级来确认这个信号的可靠性,将会有较好的效果。如在日K线图上产生KDJ指标的低位黄金交叉,我们可以把它放大到周线图上去看,如果在周线图上也是在低位产生黄金交叉,我们将认为这个信号可靠性强,可以大胆去操作。如果周线图上显示的是在下跌途中,那么日线图上的黄金交叉可靠性不强,有可能是庄家的骗线手法,这时候我们可以采用观望的方法。2.形态法。由于KDJ指标的敏感,它给出的指标经常超前,因此我们可以通过KDJ指标的形态来帮助找出正确的买点和卖点,KDJ指标在低位形成W底,三重底和头肩底形态时再进货;在较强的市场里,KDJ指标在高位形成M头和头肩顶时,出货的信号可靠性将加强。3.数浪法。KDJ指标和数浪相结合,是一种非常有效的方法。在K线图上,我们可以经常清晰地分辨上升形态的一浪,三浪,五浪。在K线图上,股价盘底结束,开始上升,往往在上升第一子浪时,KDJ指标即发出死亡交叉的出货信号,这时候,我们可以少考虑这个卖出信号,因为它很可能是一个错误信号或是一个骗线信号。当股指运行到第三子浪时,我们将加大对卖出信号的重视程度,当股指运动到明显的第五子浪时,这时如KDJ指标给出卖出信号,我们将坚决出货。这时候KDJ指标给出的信号通常将是非常准确的信号,当股指刚刚结束上升开始下跌时,在下跌的第一子浪,少考虑KDJ指标的买进信号,当股指下跌了第三子浪或第五子浪时,才考虑KDJ指标的买入信号,尤其是下跌五子浪后的KDJ指标给出的买进信号较准确。4.趋势线法。在股指或股价进入一个极强的市场或极弱的市场,股指会形成单边上升走势和单边下跌走势;在单边下跌走势中,KDJ指标会多次发出买入信号或低位钝化,投资者按买入信号操作了,将被过早套牢,有的在极低的价位进货的,结果股价继续下跌,低了还可以低。如果要有效解决这个问题,可以在K线图上加一条下降趋势线,在股指和股价没有打破下跌趋势线前,KDJ发出的任何一次买入信号,都将不考虑,只有当股指和股价打破下降趋势线后,再开始考虑KDJ指标的买入信号;在单边上升的走势中,市场走势极强,股指会经常在高位发出卖出信号,按此信号操作者将丢失一大段行情,我们也可以在日K线上加一条上升趋势线,在股价或股指未打破上升趋势线前,不考虑KDJ指标给出的卖出信号,当股指和股价一旦打破上升趋势线,KDJ给出的卖出信号,将坚决执行,不打折扣。特殊分析播报编辑一.KDJ的分析周期日、周、月、分钟(主要是60分钟)10日以下为分析参数的KDJ的研判适用周期为3天左右(从金叉到死叉为3天时间)50日以下为分析参数的KDJ的研判使用周期为10天左右50日以上为分析参数的KDJ的研判适用周期为20天左右二.均线先行原则股价一旦被长期均线压制,KDJ再怎么样金叉一般也只能做短线操作,切莫做中长线投资。这是KDJ使用的前提。在长期均线下,且远离均线,KDJ金叉时,股价有超跌反弹的可能可做短线操作三.涨势的大体周期日KDJ是短中期 最多维持15天--1个月周KDJ是中期,维持时间为1个月--3个月(一旦金叉,一个月内基本会涨,但涨幅不能确定)月KDJ是长期,维持时间一般为3个月--5个月四.除权后,KDJ指标没有研判意义,起码要三个月以后才能重新研判五.KDJ的参数的修改随着技术分析的广泛应用,技术指标的重要性已是不言而喻。但由于技术指标的运算已大为简化这就造成技术指标大面积的雷同,并失去其指导作用。股神之路网站提醒:为尽量保持精确性、敏感性和时效性的和谐与统一,有必要对某些指标重置参数,并注意以下通则:第一.根据时间循环周期设定参数。无论大盘还是个股, 时间周期对其运行都会产生较大的影响,而周期本身往往就是一个非常重要的参数,这一点在均线、强弱指标等方面表现得尤为突出。至于周期的测量, 通常可由两个重要低点的时间跨度来确定。同时,由于存在长、中、短线的区别,投资者必须根据具体情况设定个性化且自己熟知的参数,而5(日)或其倍数、以及费波南兹数列在这方面都是不错的选择。第二.保持不同时间标准的一致性。如果将适用于日线的参数放到分时里,特别是震荡类指标就会过于敏感,用于周线或月线则会明显滞后,因此,在应用过程中,这一原则必须适当变通后方可使用,这绝不是一个简单的计算问题,而是换算之后需要进行微调,尽管个别指标绝对保持一致仍能取得较好的效果。第三.注意大盘与个股间的异同点。由于大盘与个股是一般与特殊的关系,适合于大盘的同一指标参数,通常可直接或略作调整后用于大多数个股,但两者之间的差异毕竟存在,大盘的平均结果往往也会掩盖许多真相或忽略了个性化,即处于超强或超弱状态的个股不同于大盘,其参数的设定理应另开小灶。第四.随市场变化不断调整并优化。强势股和弱势股与大盘情形迥然不同, 平衡市与趋势运行也有所不同。面对不断变化的市场, 一旦发现原参数不太适合当时的市势,大家就需要对该参数进行修正以便优化指标,这应是一项长期的工作, 中短期参数更是如此。使用要领播报编辑KDJ指标由3根曲线组成,移动速度最快的是J线,其次是K线,最慢的是D线。下面来说一下KDJ的使用要领。1.KDJ指标的区间主要分为3个小部分,即20以下、20—80之间和80以上。其中20以下的区间为超卖区;80以上的区域为超买区;20—80之间的区域为买卖平衡区。2.如果K、D、J值都大于50时,为多头市场,后市看涨;如果K、D、J值都小于50时,为空头市场,后市看空。3.KDJ指标图形中,D曲线运行速度最慢,敏感度最低;其次是K曲线,J曲线敏感度最强。4.当J大于K、K大于D时,即3条指标曲线呈多头排列,显示当前为多头市场;当3条指标出现黄金交叉时,指标发出买入信号。5.当3条指标曲线呈空头排列时,表示短期是下跌趋势;3条曲线出现死亡交叉时,指标发出卖出信号。6.如果KD线交叉突破反复在50左右震荡,说明行情正在整理,此时要结合J值,观察KD偏离的动态,再决定投资行动。中期运用播报编辑图1 周线KDJ股谚云:“底部买入,不动如山”,以正确的方法,在市场低位承接恐慌盘,是中长线投机与投资的制胜之道。利用周线KDJ抄大底,在可叉的底部区域做多是胜率极高的赢家之道。由于9周KDJ指标反映的是股价中期趋势的涨跌变化,其买卖信号的中线参考价值较高。但对于运用9周KDJ抄底的个股需要具备以下几个条件:①个股股性活跃,震荡幅度大。②顶部无明显逃庄行为。③盘子适中,流通盘小于9000万股(最好小于6500万股)。④自顶部累计下跌或中期单边急跌幅度较大。符合上述条件的个股用9周KDJ抄底准确性极高,具体信号特征如下:1.9周KDJ在20以下出现黄金交叉,往往是最佳的切入时间(如图1中B1点)。一般中短线至少都有一定力度的反弹上扬行情。2.KDJ在20左右(可略高于20)或在50左右发生金叉时,往往是中短期底部。只有当KDJ有较明显底背离(股价创新低,KD指标拒绝创新低)信号时,以及低位双交叉或多次交*时,才可认为是中期底部(或次中级底部)来临(如图1中B2点)。3.J线指标为负,出现2周以上(往往3-5周)。底部钝化,时常会引发低位反弹。投资者可以把此时看做中短期底部,但是以快进快出、获利就跑的态度参与(如图1中B3点)。除非出现9周RSI,14周RSI低于20,或KDJ低位(20左右)底背离及KDJ两次以上交*等更为可*的中长线信号时,才能转为抄底后中线持有。通过以上分析,我们对于基本面有潜质,资金面有庄的个股,通过9周KDJ捕捉可叉的中线底、长线底是完全有可能的。只不过投资者要具有极大的耐心,并以中线投资的坚定信念,在K线图最难看的时刻介入抄底,只有这样才能达到较高的成功率,并赢得不菲的中线收益。临界钝化现象播报编辑所谓临界钝化指的是最明显、最凶狠、最直接的钝化方式,是指从最高位置100(或最低位置0)直接不回头的直线到达最低位置0(或最高位置100)。记住一条直接到达的原则,如果中途有停留就不算。当将KDJ的时间参数设到一个特定的值,一般是九周,即日K线图上的45天KDJ指标,去研究临界钝化状态时,会得到一些有价值的结果:这种45天KDJ的临界钝化状态出现之后,后市往往有较大的后续行情,是股价趋势将发生反转的前奏,往往真正的主推动浪还在后面。由于这种方法用于判断是否会有较大的行情出现,所以它也有确认的原则:1.首先要遵守直接到达,即J值直接从底部钝化状态运行至顶部钝化状态,中间不做停留;2.由于是判断新一轮的行情出现,所以在此之前股价趋势应该是明显偏弱的,调整幅度较大,股价处于相对底部,调整时间比较充分,一般在半年左右;3.J值到达顶部钝化位置后,一般都会向下回调,但回调的最低点不应低于40左右的范围。如果J值又直接从顶部钝化回到底部位置,则上攻趋势不能确认。掌握上述三个确认条件,就可以运用45天J值的临界钝化现象指导操作。在钝化顶部不可能是最好的介入机会,一般可以选择在J值从钝化顶部开始回调后第一次再度上升时介入。 [4]新手上路成长任务编辑入门编辑规则本人编辑我有疑问内容质疑在线客服官方贴吧意见反馈投诉建议举报不良信息未通过词条申诉投诉侵权信息封禁查询与解封©2024 Baidu 使用百度前必读 | 百科协议 | 隐私政策 | 百度百科合作平台 | 京ICP证030173号 京公网安备110000020000KDG是什么意思? - KDG的全称 | 在线英文缩略词查询
KDG是什么意思? - KDG的全称 | 在线英文缩略词查询
↓ 跳到主内容
EnglishالعربيةБългарскиCatalàČeštinaCymraegDanskDeutschΕλληνικάEspañolEestiفارسیSuomiFrançaisעִבְרִיתहिन्दीJezikAyititMagyarBahasa IndonesiaItaliano日本語한국어LietuviųLatviešuMelayuMaltiNorskNederlandsPolskiPortuguêsRomânăРусскийSlovenčinaslovenščinaSvenskaไทยTürkçeукраїнськаاردوViệt Nam繁體中文
首页 › 3 个字母 › KDG
KDG 是什么意思?
你在寻找KDG的含义吗?在下图中,您可以看到KDG的主要定义。 如果需要,您还可以下载要打印的图像文件,或者您可以通过Facebook,Twitter,Pinterest,Google等与您的朋友分享。要查看KDG的所有含义,请向下滚动。 完整的定义列表按字母顺序显示在下表中。
KDG的主要含义
下图显示了KDG最常用的含义。 您可以将图像文件下载为PNG格式以供离线使用,或通过电子邮件发送给您的朋友。如果您是非商业网站的网站管理员,请随时在您的网站上发布KDG定义的图像。
KDG的所有定义
如上所述,您将在下表中看到KDG的所有含义。 请注意,所有定义都按字母顺序列出。您可以单击右侧的链接以查看每个定义的详细信息,包括英语和您当地语言的定义。
首字母缩写词定义KDGKonrad Duden 体育馆KDG了设计集团股份有限公司KDG卡雷尔 · 格罗特商学院KDG基尔大学地质系KDG她德国有限公司KDG肯尼亚发展网关KDG酮基-D-葡萄糖酸
‹ KD
KDJ ›
语言
EnglishالعربيةБългарскиCatalàČeštinaCymraegDanskDeutschΕλληνικάEspañolEestiفارسیSuomiFrançaisעִבְרִיתहिन्दीJezikAyititMagyarBahasa IndonesiaItaliano日本語한국어LietuviųLatviešuMelayuMaltiNorskNederlandsPolskiPortuguêsRomânăРусскийSlovenčinaslovenščinaSvenskaไทยTürkçeукраїнськаاردوViệt Nam繁體中文
简体中文
Recent Posts
文章分类
>>
1
2
3
4
5
6
7
8
9
10
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
© 2014 - 2023
Abbreviation Finder. 站点地图 | Recent Posts
Terms of Use | Privacy Policy | About Us | Blog
加拿大KDG设计集团中国事务部-果核设计咨询(上海)有限公司简介-建筑英才网
加拿大KDG设计集团中国事务部-果核设计咨询(上海)有限公司简介-建筑英才网
举报
建议反馈
置顶
公司介绍
建筑英才网
化工英才网
医药英才网
金融英才网
制造业人才网
英才网联800hr.com
地区不限|
搜索
首页
我的简历
手机版
个人注册
企业注册
当前位置:首页>找工作>加拿大KDG设计集团中国事务部-果...
加拿大KDG设计集团中国事务部-果核设计咨询(上海)有限公司
该企业已通过营业执照审核
外商独资 · 1 - 49人 · 建筑设计,装修装饰,园林景观,其他
0
在招职位
公司介绍
公司简介
加拿大KDG设计集团中国事务部诚聘。 Kernel Design Group是总部位于加拿大多伦多市的具有悠久历史、全方位的设计集团公司,在加拿大、美国、中国台湾以及中国大陆均设有分公司。 果核设计咨询(上海)有限公司为加拿大KDG设计集团于中国首要分支机构。负责KDG及其战略合作伙伴Young & Wright建筑师事务所在中国境内的建筑、规划、景观、室内设计项目。 KDG的设计从大到小包罗万象,但都集中体现了整体社区的相容性以及相辅相成性。KDG擅长利用城市基本的组成部分,创造城市景象,例如和谐的家庭住房,别墅,学校,图书馆,高档办公及综合大楼,多功能社区中心,大型商业综合体。迄今为止,KDG建筑师事务所先后成立建筑设计部门,城市设计部门,景观设计部门和室内设计部门。KDG以建筑师对都市景观的创新,都市生态的调合及都市生活品味的精纯化为使命,结合文化,艺术及科技,力求不断超越传统的设计思维。 KDG不仅仅是高度专业化的设计团队,而且是跨越专业领域,国际地域整合学术,咨询,投资,企划,营建,营销界各精英的强大集群。KDG的力量来自于与不同领域的团队合作;KDG的力量来自于领导团队合作的能力;KDG的力量来自于高效的规划设计策划理念;KDG的力量来自于专业的知识。 KDG全球业务范围包括: 规 划:总体规划、城市规划、可行性研究、战略性策划 建筑设计:建筑设计、修建与保护、设施调查评估、设施整顿治理 景观建筑:园林广场设计、场地设计、场地评估发展、分区辅助 室内设计:室内设计、方案与空间设计、家具与陈设、图示,标志及艺术工程计划 专项服务:工程计划管理、造价估算、施工组织计划、价值工程 工程设备:电气、空调、结构、电信
加拿大KDG设计集团中国事务部诚聘。 Kernel Design Group是总部位于加拿大多伦多市的具有悠久历史、全方位的设计集团公司,在加拿大、美国、中国台湾以及中国大陆均设有分公司。 果核设计咨询(上海)有限公司为加拿大KDG设计集团于中国首要分支机构。负责KDG及其战略合作伙伴Young & Wright建筑师事务所在中国境内的建筑、规划、景观、室内设计项目。 KDG的设计从大到小包罗万象,但都集中体现了整体社区的相容性以及相辅相成性。KDG擅长利用城市基本的组成部分,创造城市景象,例如和谐的家庭住房,别墅,学校,图书馆,高档办公及综合大楼,多功能社区中心,大型商业综合体。迄今为止,KDG建筑师事务所先后成立建筑设计部门,城市设计部门,景观设计部门和室内设计部门。KDG以建筑师对都市景观的创新,都市生态的调合及都市生活品味的精纯化为使命,结合文化,艺术及科技,力求不断超越传统的设计思维。 KDG不仅仅是高度专业化的设计团队,而且是跨越专业领域,国际地域整合学术,咨询,投资,企划,营建,营销界各精英的强大集群。KDG的力量来自于与不同领域的团队合作;KDG的力量来自于领导团队合作的能力;KDG的力量来自于高效的规划设计策划理念;KDG的力量来自于专业的知识。 KDG全球业务范围包括: 规 划:总体规划、城市规划、可行性研究、战略性策划 建筑设计:建筑设计、修建与保护、设施调查评估、设施整顿治理 景观建筑:园林广场设计、场地设计、场地评估发展、分区辅助 室内设计:室内设计、方案与空间设计、家具与陈设、图示,标志及艺术工程计划 专项服务:工程计划管理、造价估算、施工组织计划、价值工程 工程设备:电气、空调、结构、电信
收起
展开
工商备案信息
公司全称:果核设计咨询(上海)有限公司
法人代表:余俊辉成立日期:2004-08-09注册资本:350万美元
经营状态:存续(在营、开业、在册)
企业类型:有限责任公司(外国法人独资)
注册地址:上海市虹口区汶水东路51号820室
经营范围:装潢设计咨询,建筑工程管理咨询,企业形象策划,企业信息咨询。
信息来源:
公司地址
公司已设置保密,请通过系统应聘职位。
学历要求
职称要求
薪资待遇
工作地点
工作经验
您的筛选没有结果,建议您修改条件重新筛选!
当前结果数: 个职位
工种分类
技能等级
薪资待遇
工作地点
从业年限
您的筛选没有结果,建议您修改条件重新筛选!
当前结果数: 个职位
联系方式
公司已设置保密,请通过系统应聘职位。
其他相似职位
驻场设计主管
三年以上 · 本科 · 山东-济南市
助理设计师
二年以上 · 本科及以上 · 广东-深圳市
助理工程师
不限 · 本科及以上 · 广东-深圳市
电气工程师(协助甲方设计管理)
三年以上 · 本科及以上 · 山东-济南市
设计助理
不限 · 本科 · 广东-深圳市
结构工程师
二年以上 · 本科及以上 · 江苏-南京市
查看更多职位 >
[{"id":"000","name":"学历不限"},{"id":"10","name":"无要求"},{"id":"11","name":"初中"},{"id":"12","name":"高中"},{"id":"13","name":"中技"},{"id":"14","name":"中专"},{"id":"15","name":"大专"},{"id":"16","name":"本科"},{"id":"17","name":"硕士"},{"id":"18","name":"MBA"},{"id":"19","name":"博士"},{"id":"20","name":"博士后"},{"id":"21","name":"其他"}]
[{"id":"000","name":"职称不限"},{"id":"11","name":"初级职称"},{"id":"12","name":"中级职称"},{"id":"13","name":"高级职称"}]
[{"id":"000","name":"薪资不限"},{"id":"10","name":"2000以下"},{"id":"11","name":"2000-4000"},{"id":"12","name":"4000-6000"},{"id":"13","name":"6000-8000"},{"id":"14","name":"8000-10000"},{"id":"15","name":"10000-15000"},{"id":"16","name":"15000-20000"},{"id":"17","name":"20000-30000"},{"id":"18","name":"30000-50000"},{"id":"19","name":"50000以上"}]
[{"id":"000","name":"经验不限"},{"id":"11","name":"无经验"},{"id":"12","name":"应届生"},{"id":"13","name":"一年以上"},{"id":"14","name":"二年以上"},{"id":"15","name":"三年以上"},{"id":"17","name":"五年以上"},{"id":"20","name":"八年以上"},{"id":"22","name":"十年以上"},{"id":"27","name":"十五年以上"}]
[{"id":"000","name":"工种不限"},{"id":"531000","name":"化学矿","child":[{"id":"531100","name":"预处理","child":[{"id":"531101","name":"分级"},{"id":"531102","name":"粉碎"},{"id":"531103","name":"团固烧结"},{"id":"531104","name":"精选"},{"id":"531105","name":"脱水"},{"id":"531106","name":"除尘"}]},{"id":"531200","name":"化学加工","child":[{"id":"531201","name":"焙烧"},{"id":"531202","name":"氧化"},{"id":"531203","name":"吸收"},{"id":"531204","name":"分离"}]},{"id":"531300","name":"回收处理","child":[{"id":"531301","name":"废水处理利用"},{"id":"531302","name":"固体废物处理利用"},{"id":"531303","name":"废气处理利用"}]}]},{"id":"532000","name":"石油化工","child":[{"id":"532100","name":"预处理","child":[{"id":"532101","name":"脱盐脱水"},{"id":"532102","name":"常减压蒸馏"}]},{"id":"532200","name":"化学加工","child":[{"id":"532201","name":"催化裂化"},{"id":"532202","name":"催化重整"},{"id":"532203","name":"加氢裂化"},{"id":"532204","name":"焦化"},{"id":"532205","name":"分离"},{"id":"532206","name":"合成"},{"id":"532207","name":"裂解"},{"id":"532208","name":"气化"},{"id":"532209","name":"脱硫"},{"id":"532210","name":"抽提"}]},{"id":"532300","name":"回收处理","child":[{"id":"532301","name":"废水处理利用"},{"id":"532302","name":"固体废物处理利用"},{"id":"532303","name":"废气处理利用"}]}]},{"id":"533000","name":"煤化工","child":[{"id":"533100","name":"预处理","child":[{"id":"533101","name":"洗煤"},{"id":"533102","name":"粉碎"}]},{"id":"533200","name":"化学加工","child":[{"id":"533201","name":"干馏"},{"id":"533202","name":"气化"},{"id":"533203","name":"液化"},{"id":"533204","name":"分离"},{"id":"533205","name":"合成"},{"id":"533206","name":"氧化"},{"id":"533207","name":"脱水"},{"id":"533208","name":"焦化"}]},{"id":"533300","name":"回收处理","child":[{"id":"533301","name":"废水处理利用"},{"id":"533302","name":"固体废物处理利用"},{"id":"533303","name":"废气处理利用"}]}]},{"id":"534000","name":"天然气","child":[{"id":"534101","name":"分离"},{"id":"534102","name":"干燥"},{"id":"534103","name":"分馏"},{"id":"534104","name":"氧化"},{"id":"534105","name":"合成"},{"id":"534106","name":"裂解"},{"id":"534107","name":"转化"},{"id":"534108","name":"偶联"},{"id":"534109","name":"氯化"},{"id":"534120","name":"硝化"},{"id":"534111","name":"硫化"},{"id":"534112","name":"脱氢"}]},{"id":"535000","name":"生物化工","child":[{"id":"535101","name":"水解"},{"id":"535102","name":"皂化"},{"id":"535103","name":"催化加氢"},{"id":"535104","name":"气化"},{"id":"535105","name":"裂解"},{"id":"535106","name":"萃取"}]},{"id":"536000","name":"化工","child":[{"id":"536100","name":"预处理","child":[{"id":"536101","name":"分级"},{"id":"536102","name":"粉碎"},{"id":"536103","name":"干燥"},{"id":"536104","name":"过滤"},{"id":"536105","name":"混合"},{"id":"536106","name":"加热"},{"id":"536107","name":"加压"},{"id":"536108","name":"净化"},{"id":"536109","name":"配制"},{"id":"536110","name":"溶解"},{"id":"536111","name":"蒸发"},{"id":"536112","name":"制备"}]},{"id":"536200","name":"化学加工","child":[{"id":"536201","name":"氧化"},{"id":"536202","name":"还原"},{"id":"536203","name":"加氢"},{"id":"536204","name":"脱氢"},{"id":"536205","name":"歧化"},{"id":"536206","name":"异构"},{"id":"536207","name":"烷基化"},{"id":"536208","name":"羰基化"},{"id":"536209","name":"水解"},{"id":"536210","name":"电解"},{"id":"536211","name":"水合"},{"id":"536212","name":"偶合"},{"id":"536213","name":"聚合"},{"id":"536214","name":"缩合"},{"id":"536215","name":"酯化"},{"id":"536216","name":"磺化"},{"id":"536217","name":"硝化"},{"id":"536218","name":"卤化"},{"id":"536219","name":"重氮化"},{"id":"536220","name":"合成"},{"id":"536221","name":"加热"},{"id":"536222","name":"冷却"},{"id":"536223","name":"蒸馏"},{"id":"536224","name":"过滤"},{"id":"536225","name":"光化"},{"id":"536226","name":"胺化"},{"id":"536227","name":"碱溶"},{"id":"536228","name":"催化"}]},{"id":"536300","name":"精制","child":[{"id":"536301","name":"萃取"},{"id":"536302","name":"精馏"},{"id":"536303","name":"干燥"},{"id":"536304","name":"结晶"},{"id":"536305","name":"渗透(膜分离)"},{"id":"536306","name":"冷凝"},{"id":"536307","name":"闪蒸"},{"id":"536308","name":"吸附"},{"id":"536309","name":"吸收"},{"id":"536310","name":"冷冻"},{"id":"536311","name":"过滤"}]},{"id":"536400","name":"回收处理","child":[{"id":"536401","name":"废水处理利用"},{"id":"536402","name":"固体废物处理利用"},{"id":"536403","name":"废气处理利用"}]}]},{"id":"537000","name":"车间运营管理","child":[{"id":"537101","name":"车间主任"},{"id":"537102","name":"生产调度PMC"},{"id":"537103","name":"生产统计"}]},{"id":"538000","name":"安装运行维护","child":[{"id":"538100","name":"电仪","child":[{"id":"538101","name":"设备员"},{"id":"538102","name":"仪表工"},{"id":"538103","name":"电工"}]},{"id":"538200","name":"机修","child":[{"id":"538201","name":"保全工"},{"id":"538202","name":"钳工"},{"id":"538203","name":"焊工"},{"id":"538204","name":"管工"},{"id":"538205","name":"铆工"},{"id":"538206","name":"车工"},{"id":"538207","name":"铣工"},{"id":"538208","name":"架子工"},{"id":"538209","name":"起重工"},{"id":"538210","name":"探伤工"},{"id":"538211","name":"螺丝工"},{"id":"538212","name":"钣金工"},{"id":"538213","name":"电镀工"},{"id":"538214","name":"涂装工"}]}]},{"id":"539000","name":"安全环保","child":[{"id":"539101","name":"安全员"},{"id":"539102","name":"环保员"}]},{"id":"540000","name":"生产技术","child":[{"id":"540101","name":"工艺员\/技术员"}]},{"id":"541000","name":"生产操作","child":[{"id":"541101","name":"班组长"},{"id":"541102","name":"内操\/中控"},{"id":"541103","name":"外操(主操\/副操)"}]}]
[{"id":"000","name":"技能不限"},{"id":"10","name":"无特定要求"},{"id":"11","name":"初级工"},{"id":"12","name":"中级工"},{"id":"13","name":"高级工"},{"id":"14","name":"技师"},{"id":"15","name":"高级技师"}]
[{"id":"000","name":"经验不限"},{"id":"11","name":"无经验"},{"id":"12","name":"应届生"},{"id":"13","name":"1年"},{"id":"14","name":"2年"},{"id":"15","name":"3年"},{"id":"16","name":"4年"},{"id":"17","name":"5年"},{"id":"18","name":"6年"},{"id":"19","name":"7年"},{"id":"20","name":"8年"},{"id":"21","name":"9年"},{"id":"22","name":"10年及以上"}]
[{"id":"000","name":"工种不限"},{"id":"520000","name":"土建专业","child":[{"id":"520101","name":"木工"},{"id":"520102","name":"砌筑工"},{"id":"520103","name":"抹灰工"},{"id":"520104","name":"油漆工"},{"id":"520105","name":"防水工"},{"id":"520106","name":"钢筋工"},{"id":"520107","name":"混凝土工"},{"id":"520108","name":"架子工"},{"id":"520109","name":"石工"},{"id":"520110","name":"测量放线工"},{"id":"520111","name":"试验工"},{"id":"520112","name":"筑路工"},{"id":"520113","name":"桥隧工"},{"id":"520114","name":"舟桥工"},{"id":"520115","name":"管道工"},{"id":"520116","name":"水暖工"},{"id":"520117","name":"铁路线桥工"},{"id":"520118","name":"电工"},{"id":"520119","name":"金属门窗工"},{"id":"520120","name":"钣金工"}]},{"id":"521000","name":"安装专业","child":[{"id":"521101","name":"安装钳工"},{"id":"521102","name":"管道工"},{"id":"521103","name":"通风工"},{"id":"521104","name":"焊工"},{"id":"521105","name":"铆工"},{"id":"521106","name":"机械设备安装工"},{"id":"521107","name":"电气设备安装工"},{"id":"521108","name":"电梯安装维修工"},{"id":"521109","name":"空调安装维修工"},{"id":"521110","name":"锅炉设备安装工"},{"id":"521111","name":"电力设备安装工"},{"id":"521112","name":"轨道交通通信工"},{"id":"521113","name":"轨道交通信号工"},{"id":"521114","name":"电缆安装运维工"},{"id":"521115","name":"送配电线路工"},{"id":"521116","name":"电力线路安装工"},{"id":"521117","name":"门窗幕墙安装工"},{"id":"521118","name":"构件装配工"}]},{"id":"522000","name":"古建筑专业","child":[{"id":"522101","name":"古建木工"},{"id":"522102","name":"古建瓦工"},{"id":"522103","name":"古建油漆工"},{"id":"522104","name":"古建彩画工"},{"id":"522105","name":"古建石工"}]},{"id":"523000","name":"机械化施工专业","child":[{"id":"523101","name":"推土机司机"},{"id":"523102","name":"挖掘机司机"},{"id":"523103","name":"起重机司机"},{"id":"523104","name":"铲运机司机"},{"id":"523105","name":"叉车司机"},{"id":"523106","name":"装载机司机"},{"id":"523107","name":"养路机械司机"},{"id":"523108","name":"轨道车司机"},{"id":"523109","name":"桥梁机械操作工"},{"id":"523110","name":"摊销机操作工"},{"id":"523111","name":"管涵顶进工"},{"id":"523112","name":"盾构机操作工"},{"id":"523113","name":"路基路面工"},{"id":"523114","name":"压路机操作工"},{"id":"523115","name":"平地机操作工"},{"id":"523116","name":"凿岩工"},{"id":"523117","name":"爆破工"},{"id":"523118","name":"桩工"}]},{"id":"524000","name":"建筑制品专业","child":[{"id":"524101","name":"机械木工"},{"id":"524102","name":"制材工"},{"id":"524103","name":"修锯工"},{"id":"524104","name":"钢筋工"},{"id":"524105","name":"混凝土制品模具工"},{"id":"524106","name":"混凝土制品工"},{"id":"524107","name":"混凝土搅拌工"},{"id":"524108","name":"构件制作工"}]}]
Document
举报企业
我们会向您核实具体情况,对该企业进行审核并作出相应处理,感谢您对英才网联的支持与关注。
举报原因违规招聘
不良企业
详细描述
请输入描述
电子邮箱
请输入正确电子邮箱
联系电话
请输入正确联系电话
验证码
看不清,换一张
请输入正确验证码
提交
手机登录
用户名登录
手机号:
密 码:
忘记密码
登 录
注 册
还可以使用以下方式登录:
注册成为个人会员,享受专业人才招聘服务。
您的简历投递成功
关注并绑定公众号
随时接收企业来信
重要通知不会遗漏
确定
您的简历信息已更新,请点击刷新按钮后重新申请。
刷 新
搜索器名称:
订阅搜索器职位
接收频率:
请选择
每天每3天每7天
职位数量:
请选择
5102050
开始日期:
请选择
接收邮箱:
确定取消
关于我们
联系我们
新闻中心
建议反馈
手机找工作
触屏版
本网站之所有招聘信息及作品未经书面授权不得转载。
版权所有:英才网联
- 建筑英才网 copyright 2003--2024
buildhr.com
all rights reserved 京ICP证100307号
Knowledge Distillation on Graphs: A Survey 图知识蒸馏综述 - 知乎
Knowledge Distillation on Graphs: A Survey 图知识蒸馏综述 - 知乎首发于Graph Learning切换模式写文章登录/注册Knowledge Distillation on Graphs: A Survey 图知识蒸馏综述easonGo for 24Fall CS PhD!AbstractGraph Neural Networks (GNNs) have attracted tremendous attention by demonstrating their capability to handle graph data. However, they are difficult to be deployed in resource-limited devices due to model sizes and scalability constraints imposed by the multi-hop data dependency. In addition, real-world graphs usually possess complex structural information and features.图神经网络 (GNN) 因为它们处理图数据的能力引起了极大的关注。然而,由于多跳数据依赖施加的模型大小和可扩展性约束,它们很难部署在资源有限的设备中。此外,现实世界的图通常具有复杂的结构信息和特征。Therefore, to improve the applicability of GNNs and fully encode the complicated topological information, knowledge distillation on graphs (KDG) has been introduced to build a smaller yet effective model and exploit more knowledge from data, leading to model compression and performance improvement.因此,为了提高 GNN 的适用性并充分编码复杂的拓扑信息,引入了图上的知识蒸馏(KDG)来构建更小但有效的模型并利用数据中的更多知识,带来模型压缩和性能改进。Recently, KDG has achieved considerable progress with many studies proposed. In this survey, we systematically review these works. Specifically, we first introduce KDG challenges and bases, then categorize and summarize existing works of KDG by answering the following three questions: 1) what to distillate, 2) who to whom, and 3) how to distillate. Finally, we share our thoughts on future research directions.最近,KDG 在许多提议的研究中都取得了相当大的进展。在本次调查中,我们系统地回顾了这些工作。具体来说,我们首先介绍 KDG 挑战和基础,然后通过回答以下三个问题对 KDG 的现有工作进行分类和总结:1)蒸馏什么,2)谁蒸馏到谁,以及 3)如何蒸馏。最后,我们分享了我们对未来研究方向的想法。1 IntroductionGraph-structured data is ubiquitous in the real world, with its capability to model a variety of structured and relational systems, such as academic graphs [Hu et al., 2020] , knowledge graphs [Hogan et al., 2021], and social networks [Bian et al., 2020 ]. To understand and exploit the inherent structure of graphs, Graph Neural Networks (GNNs) have been proposed [ Xu et al., 2019; Velickovic et al., 2018; Kipf and Welling, 2017 ]. GNNs have shown exceptional capacity and promising performance in handling non-Euclidean structural data, and have been applied in many downstream applications across different domains, including recommender systems [Fan et al., 2019; Tian et al., 2022a ], chemical science [Guo et al., 2022b; Stark et al., 2022] , and food/nutrition services [Tian et al., 2022c; Tian et al., 2022b].图结构数据在现实世界中无处不在,它能够对各种结构化和关系系统进行建模,例如学术图 [Hu et al., 2020]、知识图 [Hogan et al., 2021] 和社交网络 [Bian et al., 2020]。为了了解和利用图的固有结构,已经提出了图神经网络 (GNN) [Xu et al., 2019; Velickovic et al., 2018; Kipf and Welling, 2017)。GNN在处理非欧氏结构数据方面表现出了卓越的能力和良好的性能,并已应用于不同领域的许多下游应用,包括推荐系统[Fan等人,2019;Tian等人,2022a],化学科学[Guo等人,2022b;Stark等人,2022]和食物/营养服务[Tian等人,2022c;Tian等人,2022b]。The success of modern GNNs relies on the complex model structure and the usage of message passing architecture, which aggregates and learns node representations based on their (multi-hop) neighborhood。现代 GNN 的成功依赖于复杂的模型结构以及消息传递架构的使用,这基于节点(多跳)邻域聚合和学习节点表示。However, the advancement of larger and deeper model structures makes training expensive [ Li et al., 2019 ] , and message passing is timeconsuming and computation-intensive [ Zhang et al., 2022b ] . This poses challenges in applying GNNs to resource-limited devices due to the model size and the scalability constraint.然而,更大更深的模型结构的进步使得训练昂贵 [Li et al., 2019),消息传递耗时且计算密集型 [Zhang et al., 2022b]。由于模型大小和可扩展性约束,这给将 GNN 应用于资源有限的设备带来了挑战。In addition, real-world graphs usually possess complex structures and node features [ Jin et al., 2020 ] , making the encoding of informative topological information a crucial aspect of model designs. Correspondingly, calls for developing new paradigms of resource-friendly and effective GNNs were raised. Fortunately, knowledge distillation (KD) [Hinton et al., 2015] has emerged to alleviate the resource limitation by training a smaller model and enhancing the model's capability in encoding data for images [ Liu et al., 2019 ], languages [Sun et al., 2019], and robotics [Lesort et al., 2020].此外,现实世界的图通常具有复杂的结构和节点特征 [Jin et al., 2020],使得信息拓扑信息的编码成为模型设计的一个关键方面。相应地,需要开发资源友好和有效的 GNN 的新范式。幸运的是,知识蒸馏 (KD) [Hinton et al., 2015] 通过训练较小的模型和增强模型对图像数据进行编码的能力来缓解资源限制 [Liu et al., 2019]、语言 [Sun et al., 2019] 和机器人 [Lesort et al., 2020]。Therefore, knowledge distillation on graphs (KDG), which naturally introduces the advantages of KD into graph learning and builds efficient GNNs, has become a promising research topic and attracted increasing attention from the Artificial Intelligence (AI) community. Consequently, there have been many KDG studies with diverse methodologies and applications in recent years. In this survey, we provide a comprehensive and systematic review of works in KDG, as shown in Figure 1.因此,图上的知识蒸馏(KDG)自然地将KD的优势引入图学习并构建高效的GNN,已成为一个有前途的研究课题,并引起了人工智能社区不断增长的关注。因此,近年来有许多具有不同方法和应用KDG研究。在本次调查中,我们对 KDG 中的工作进行了全面和系统的回顾,如图 1 所示。In particular, we start by analyzing the key challenges of KDG. Then we introduce the preliminaries of KDG including graph neural networks and knowledge distillation. After that, we present the formal definition of the KDG problem and describe two common objectives of KDG. Next, we summarize the existing KDG methods by categorizing them with distilled knowledge (e.g., Logits, Embeddings, Structures), distillation directions (e.g., teacher-free, teacher-to-student), and distillation algorithms (e.g, direct, adaptive, customized). We also discuss the impact of three fundamental factors including the number of teachers, the model structures, and the distillation schemes特别是,我们首先分析 KDG 的关键挑战。然后我们介绍了KDG的初步知识,包括图神经网络和知识蒸馏。之后,我们提出了 KDG 问题的正式定义并描述了 KDG 的两个常见目标。接下来,我们通过使用蒸馏知识(例如 Logits、Embeddings、Structures)、蒸馏方向(例如,无教师、师生)和蒸馏算法(例如,直接、自适应、定制)对它们进行分类来总结现有的 KDG 方法。我们还讨论了教师数量、模型结构、蒸馏方案三个基本因素的影响All in all, we answer the following three questions for KDG: 1) what to distillate, 2) who to whom, and 3) how to distillate. For better comparison and demonstration, we provide a comprehensive summary table listing the representative KDG works with their open-source codes. Finally, we conclude with a discussion of open problems and pressing issues as future research directions of KDG. To summarize, the main contributions of this work are as follows:总而言之,我们为 KDG 回答了以下三个问题:1)蒸馏什么,2)谁蒸馏到谁,以及 3)如何蒸馏。为了更好地进行比较和演示,我们提供了一个全面的摘要表,列出了具有代表性的 KDG 与其开源代码一起工作。最后,我们讨论了未解决的问题和紧迫问题作为 KDG 未来的研究方向。总而言之,这项工作的主要贡献如下:This is the first survey paper of KDG, which covers representative KDG methods from 26 publications since 2020. • We systematically survey and categorize existing works by answering three questions: 1) what to distillate, 2) who to whom, and 3) how to distillate. • We discuss the promising future research directions of KDG and encourage further investigations in this field.这是KDG的第一个调查论文,涵盖了2020年以来26篇出版物的代表性KDG方法。•我们通过回答三个问题系统地调查和分类现有的工作: 1)蒸馏什么,2)谁蒸馏到谁,以及 3)如何蒸馏。• 我们讨论了 KDG 的有希望的未来研究方向,并鼓励该领域的进一步研究。2 KDG Challenges and BasesKDG, as a new and promising research topic, is non-trivial and faces the following key challenges:KDG 作为一个新的有前途的研究课题,并非易事,面临以下关键挑战:The uniqueness of the KDG problem. Unlike general graph learning which focuses on fitting one trainable model to the graph data, KDG aims to train a scalable student model to mimic the teacher model. In addition, KDG differs from KD on images or text since graphs lie in non-Euclidean space with complex topological information. Therefore, novel methods should be designed to solve the problem by considering model scalability and graph data complexity.KDG问题的唯一性。与专注于将一个可训练模型拟合到图数据的一般图学习不同,KDG 旨在训练一个可扩展的学生模型来模拟教师模型。此外,KDG 与图像或文本的 KD 不同,因为图位于具有复杂拓扑信息的非欧几里得空间中。因此,应该设计新方法通过考虑模型可扩展性和图数据复杂性来解决这个问题。The complexity of methodology. The success of a KDG method heavily depends on the quality of distilled knowledge, the choice of model structures, the type of distillation schemes, and the appropriate design of distillation algorithms. Therefore, it is essential yet difficult to develop KDG methods with all these components taken into account and achieve the topmost performance by all means.方法的复杂性。KDG方法的成功在很大程度上取决于蒸馏知识的质量、模型结构的选择、蒸馏方案的类型和蒸馏算法的适当设计。因此,开发考虑到所有这些组件的 KDG 方法并实现最高性能至关重要但很困难。The diversity of downstream applications. KDG methods can be applied to diverse tasks and applications such as natural language inference, image segmentation, and various graph learning tasks (e.g., node and graph classification). Given that different applications may require distinct settings, objectives, constraints, and domain knowledge, it is not simple to develop a customized KDG method tailored to the target application.下游应用的多样性。KDG方法可以应用于自然语言推理、图像分割和各种图学习任务(如节点和图分类)等不同的任务和应用。鉴于不同的应用可能需要不同的设置、目标、约束和领域知识,因此开发针对目标应用定制的 KDG 方法并非易事。Next, we introduce KDG preliminaries including graph neural networks and knowledge distillation, formally define the problem, and discuss two objectives of KDG.接下来,我们介绍了 KDG 预备知识,包括图神经网络和知识蒸馏,正式定义问题并讨论 KDG 的两个目标。2.1 Graph Neural NetworksMany graph neural networks [ Velickovic et al., 2018; Kipf and Welling, 2017; Xu et al., 2019 ] have been proposed to encode the graph-structure data. They utilize the message passing paradigm to learn node embeddings by aggregating information from neighbors. Since GNNs have proven to be exceptionally effective at handling the complexity of structural data, they have become the dominant model backbone for KDG methods. In particular, we define a graph G asG = (V, E, X), where V is the set of nodes, E represents the edge set, and X denotes the node features. GNNs learn node embeddings as follows:许多图神经网络 [Velickovic et al., 2018; Kipf and Welling, 2017; Xu et al., 2019) 被提出来编码图结构数据。他们利用消息传递范式通过聚合邻居的信息来学习节点嵌入。由于 GNN 已被证明在处理结构数据的复杂性方面非常有效,因此它们已成为 KDG 方法的主要模型主干。特别是,我们定义了一个图 G 并有G = (V, E, X),其中 V 是节点集,E 表示边集,X 表示节点特征。GNN 学习节点嵌入如下:where hl v , hl u denotes the embeddings of node v, u ∈ V atl-th layer, respectively. hl+1v is the embedding of node v at(l + 1)-th layer. Nv represents the set of neighbors for node v. AGG(·) is the neighbor aggregation function and COM(·) is the combination function. h0v is initialized with node attributeXv . Furthermore, the embedding of the whole graph G can be computed as follows:其中 hl v , hl u 分别表示节点 v, u ∈ V atl 层的嵌入。hl+1v 是第 (l + 1) 层节点 v 的嵌入。Nv 表示节点 v 的邻居集。AGG(·) 是邻居聚合函数,COM(·) 是组合函数。h0v 使用节点属性 Xv 初始化。此外,整个图 G 的嵌入可以计算如下:where the READOUT function can be a simple permutation invariant function such as summation. Moreover, knowledge graphs, as variants of graphs, have attracted wide attention by regarding entities as nodes and relations between entities as edges [Hogan et al., 2021 ] . Besides employing GNNs to learn node and edge embeddings, knowledge graph embedding methods [Wang et al., 2017 ] are proposed to encode the graph as a collection of fact triplets and learn embeddings via modeling the plausibility score of each triplet.其中 READOUT 函数可以是一个简单的置换不变特征,例如求和。此外,知识图谱作为图的变体,通过将实体视为实体之间的节点和关系作为边引起了广泛关注 [Hogan et al., 2021]。除了使用 GNN 来学习节点和边嵌入之外,还提出了知识图嵌入方法 [Wang et al., 2017] 将图编码为事实三元组的集合,并通过对每个三元组的合理性分数进行建模来学习嵌入。2.2 Knowledge DistillationKnowledge distillation aims to train a smaller student model by transferring the knowledge from a larger teacher model [ Gou et al., 2021; Wang and Yoon, 2021 ] . The main idea is to enforce the student model to mimic the teacher model, where the logits, activations, neurons, and features can all be regarded as the knowledge that guides the learning of the student model [Hinton et al., 2015; Ahn et al., 2019; Heo et al., 2019 ] . In particular, the knowledge distillation loss Lkdbetween the student and the teacher can be defined as follows:知识蒸馏旨在通过将知识从更大的教师模型转移来训练更小的学生模型 [Gou et al., 2021; Wang and Yoon, 2021]。主要思想是强制学生模型模仿教师模型,其中 logits、激活、神经元和特征都可以被视为指导学生模型学习的知识 [Hinton et al., 2015; Ahn et al., 2019; Heo et al., 2019)。特别是,学生和教师之间的知识蒸馏损失 Lkd 可以定义如下:where DIV indicates the divergence loss (e.g., KullbackLeibler divergence), kT and kS are the knowledge obtained from the teacher and student models, respectively. A vanilla knowledge distillation considers the logits as the knowledge and employs a Softmax function with temperature to derive the soft targets p, which show the probabilities of the input belonging to various classes. Hence, the Eq. 3 can be reformulated as Lkd = DIV(pT , pS ), where pT and pS represent the soft targets derived from the teacher and students, respectively.其中 DIV 表示散度损失(例如 KullbackLeibler 散度),kT 和 kS 分别是从教师和学生模型中获得的知识。原始知识蒸馏将 logits 视为知识,并使用带有温度的 Softmax 函数来导出软目标 p,它显示了属于不同类别的输入的概率。因此,方程式3 可以重新表述为 Lkd = DIV(pT , pS ),其中 pT 和 pS 分别表示来自教师和学生的软目标。Similarly, in the cases where knowledge is not logits, kT andkS in Eq. 3 can be replaced accordingly, e.g., f T and f S for the learned features of the teacher and student models. After calculating Lkd, the student model is trained by a joint objective of both the origin downstream task loss and the knowledge distillation loss Lkd, where the former facilitates the student to learn from the original specific task, and the latter targets at transferring the knowledge from the teacher to the student.类似地,在知识不是 logits 的情况下,等式 3 中的 kT 和 kS 可以相应地替换,例如,教师和学生模型的学习特征的 f T 和 f S。在计算 Lkd 后,学生模型由原始下游任务损失和知识蒸馏损失 Lkd 的联合目标进行训练,前者有助于学生从原始特定任务中学习,后者的目标是将知识从教师转移到学生。2.3 KDG ProblemA KDG problem usually holds at least one of the objectives (i.e., model compression, performance improvement), and can be defined as the derivation and combination of appropriate distilled knowledge K, model structure M , distillation schemeS, and distillation algorithm A to achieve the objectives. In particular, given a graph G, a teacher model M T is presented to take G as input to obtain the teacher knowledge KT . Then, a student model M S is introduced to generate the student knowledge KS and learn from KT by comparing the divergence differences between them. The learning procedure is guided by the distillation algorithm A, and the training process (e.g., parameter updating) is defined by S which can be divided into offline and online distillations. Next, we describe the detailed settings of the two objectives and their differences.KDG 问题通常至少满足其中一个目标(即模型压缩、性能改进),可以定义为适当的蒸馏知识 K、模型结构 M、蒸馏方案 S 和蒸馏算法 A 的推导和组合以实现目标。特别是,给定一个图 G,提出了一个教师模型 MT 将 G 作为输入来获得教师知识 KT。然后,引入学生模型 MS 来生成学生知识 KS,并通过比较它们之间的分布差异从 KT 中学习。学习过程由蒸馏算法 A 指导,训练过程(例如参数更新)由 S 定义,可分为离线和在线蒸馏。接下来,我们描述了两个目标的详细设置及其差异。Objective 1. Model Compression. The student model MS is considered smaller than the teacher model M T , with either fewer intermediate laters, fewer neurons/hidden dimensions in each layer, fewer parameters, or a different model structure with better scalability, e.g., using a multilayer perceptron (MLP) as the student model. After distillation, the student model is more efficiently applicable while still maintaining comparable performances to the teacher model.目标 1。模型压缩。学生模型 MS被认为比教师模型 MT 更小,中间层更少,每层中的神经元/隐藏维度更少,参数更少,或者具有更好可扩展性的不同模型结构,例如,使用多层感知器 (MLP) 作为学生模型。蒸馏后,学生模型更有效,同时仍然保持与教师模型相当的性能。Objective 2. Performance Improvement. The student model M S has either a smaller, the same, or a different structure as the teacher model M T . The goal is to transfer the pre-acquired knowledge from the teacher to the student, rather than minimize the size of the student. The knowledge obtained from the teacher can benefit the student in capturing the complexities of the data and improving performance compared to the vanilla setting without knowledge distillation.目标2。性能改进。学生模型 MS与教师模型 MT 的结构更小,相同,要么不同。目标是将预先获得的知识从老师转移到学生,而不是最小化学生的大小。与没有知识蒸馏的普通设置相比,教师获得的知识可以使学生捕获数据的复杂性并提高性能。3 Methods and ApplicationsIn this section, we thoroughly review the existing works of KDG (Table 1) and answer the following three questions: 1) what to distillate, 2) who to whom, and 3) how to distillate. Then we examine and introduce the relevant applications.在本节中,我们彻底回顾了 KDG 的现有工作(表 1),并回答了以下三个问题:1)蒸馏什么,2)谁蒸馏到谁,以及 3)如何蒸馏。。然后我们检查并介绍相关的应用。3.1 What to DistillateThe primary step of KDG is to decide what knowledge to distill. There are three kinds of information that can be regarded as transferable knowledge for distillation on graphs, i.e., output logits, graph structures, and embeddings. Next, we introduce each of the knowledge sources with related works.KDG 的首要步骤是决定要蒸馏哪些知识。有三种信息可以看作是对图进行蒸馏的可转移知识,即输出logits、图结构和嵌入。接下来,我们介绍每个具有相关工作的知识源。Logits. The logits denote the inputs to the final Softmax and represent the soft label prediction. For downstream tasks, the probability distributions/scores can be obtained by feeding the logits to a Softmax layer [ Yan et al., 2020; Wang et al., 2021] . After calculating the logits, the KDG methods minimize the difference between the probability distribution (or scores) of a teacher model and a student model to distill the knowledge. There are various ways to measure the differences. For example, a number of works adopt KL diversity [ Zhang et al., 2021; Wang et al., 2021; Deng and Zhang, 2021; Zhang et al., 2022b; Zhang et al., 2022a; Feng et al., 2022; Wu et al., 2022; Yun et al., 2022; Huo et al., 2023; Guo et al., 2023; Tian et al., 2023b ], while several other works employ soft cross-entropy loss [Yan et al., 2020; He et al., 2022a] and statistical distances [ Yang et al., 2021; Zhuang et al., 2022; Dong et al., 2023]. Conducting the knowledge distillation via logits enables the student model to learn from the teacher from the output space, which also provides additional soft labels as training targets, especially in the semisupervised learning setting where the label supervisions can be produced to a large number of unlabeled data samples.Logits。logits 表示最终 Softmax 的输入并表示软标签预测。对于下游任务,可以通过将 logits 馈送到 Softmax 层来获得概率分布/分数 [Yan et al., 2018; Wang et al., 2021] . 在计算 logits 后,KDG 方法最小化了教师模型和学生模型的概率分布(或分数)之间的差异来提取知识。有多种方法可以衡量差异。例如,许多工作采用 KL 分布 [Zhang et al., 2021; Wang et al., 2021; Deng and Zhang, 2021; Zhang et al., 2022b; Zhang et al., 2022a; Feng et al., 2022; Wu et al., 2022; Yun et al., 2022; Huo et al., 2023; Guo et al., 2023b],而其他几项工作采用软交叉熵损失 [Yan et al., 2020; He et al., 2022a] 和统计距离 [Yang et al., 2021; Zhuang et al., 2022; Dong et al., 2023]。通过 logits 进行知识蒸馏可以使学生模型从老师的输出空间那里学习,这也提供了额外的软标签作为训练目标,特别是在半监督学习设置中,可以对大量未标记的数据样本进行标签监督。Structures. Graph structure depicts the connectivity and relationships between the elements of a graph, such as nodes and edges, and plays a crucial role in graph data modeling. Therefore, how to preserve and distill graph structure information from a teacher model to a student model has been a focus in recent studies. In particular, several works [ Yang et al., 2020; Rezayi et al., 2021; Feng et al., 2022; Guo et al., 2022a ] design strategies to formulate the local structures of nodes and distill them into the student model, so that the student can learn the knowledge of how the teacher model describes the relationship between a node and its neighbors. For example, LSP [Yang et al., 2020] first presents to model the local structures via vectors that calculate the similarity between nodes and their one-hop neighbors, where later FreeKD [Feng et al., 2022] and Alignahead [Guo et al., 2022a ] follow this design to distill the structural information into the student. Besides, GNN-SD [ Chen et al., 2021b ] represents neighborhood discrepancy as local structures and focuses on distilling them from shallow GNN layers to deep ones in order to preserve the non-smoothness of the embedded graph on deep GNNs.结构。图结构描述了图的元素(如节点和边)之间的连接和关系,在图数据建模中起着至关重要的作用。因此,如何保存和提取从教师模型到学生模型的图结构信息一直是近年来研究的热点。特别是,几项工作[Yang et al.,2020;Rezayi et al.,2021;Feng et al.,2022;Guo et al.,2022a]设计策略来构建节点的局部结构,并将其提取到学生模型中,以便学生能够学习教师模型如何描述节点与其邻居之间的关系的知识。例如,LSP[Yang et al.,2020]首先提出通过计算节点与其单跳邻居之间的相似性的向量来对局部结构进行建模,其中后来的FreeKD[Feng et al.,2022]和Alignahead[Guo et al.,202 2a]遵循这一设计,将结构信息提取到学生中。此外,GNN-SD[Chen et al.,2021b]将邻域差异表示为局部结构,并专注于将它们从浅GNN层提取到深GNN层,以保持深GNN上嵌入图的非光滑性。However, the local structures only provide limited local structural information around specific nodes and are incapable of representing the whole picture of a graph. Recent works [ Zhang et al., 2021; Zhang et al., 2022a; Wang et al., 2022; Tian et al., 2023b ] attempt to overcome this shortcoming and focus on capturing global structures to complement the local structures. For instance, CKD [Wang et al., 2022 ] works on heterogeneous graphs and proposes to model the global structure information via meta-paths. G-CRD [ Joshi et al., 2022] leverages contrastive learning to implicitly preserve global topology by aligning the student node embeddings to those of the teacher in a shared representation space. ROD [ Zhanget al., 2021] proposes to encode knowledge on different-scale reception fields by encoding graphs at various levels of localities using multiple student models, so that a more powerful teacher can be assembled from these students to capture multiscale knowledge and provide rich information to the student. Similarly, MSKD [ Zhang et al., 2022a ] tries to capture the topological semantics at different scales to supervise the training of the student model. Furthermore, Cold Brew [Zheng et al., 2022], GKD [ Yang et al., 2022], and NOSMOG [Tian et al., 2023b] propose to use structural embedding, neural heat kernel, and positional encoding to capture the global structure, respectively. The distillation of graph structural information enables the student model to retain the knowledge of topological connections and node relationships from the teacher, thereby facilitating a comprehensive encoding of the complex structure and further enhancing the performance.然而,局部结构仅在特定节点周围提供有限的局部结构信息,并且不能表示图的全貌。最近的工作试图克服这一缺点,并专注于捕捉全局结构以补充局部结构。例如,CKD[Wang et al.,2022]研究异构图,并提出通过元路径对全局结构信息进行建模。G-CRD[Joshi et al.,2022]利用对比学习,通过在共享表示空间中将学生节点嵌入与教师节点嵌入对齐,隐式地保留全局拓扑。ROD[Zhang et al.,2021]提出,通过使用多个学生模型对不同层次的局部性进行编码,对不同尺度接收场上的知识进行编码,以便从这些学生中组建一个更强大的教师来捕捉多尺度知识,并为学生提供丰富的信息。类似地,MSKD[Zhang et al.,2022a]试图捕捉不同尺度的拓扑语义,以监督学生模型的训练。此外,Cold Brew、GKD和NOSMOG提出使用结构嵌入、神经热核和位置编码来分别捕获全局结构。图形结构信息的提取使学生模型能够从老师那里保留拓扑连接和节点关系的知识,从而有助于对复杂结构进行全面编码,并进一步提高性能。Embeddings. Instead of logits and graph structures, several efforts adopt the learned node embeddings from the intermediate layers of teacher models to guide the learning of the student model. To illustrate, T2-GNN and SAIL [ Huo et al., 2023; Yu et al., 2022 ] maximize the consistency of embeddings of the same node from the teacher model and the student model. SAIL [ Yu et al., 2022 ] aims to push the node embeddings and node features to be consistent. GraphAKD [He et al., 2022a] leverages adversarial learning to distill node representations of the teacher model from both local and global views to the student model. RDD [Zhang et al., 2020 ] enforces the student model to directly mimic the entire node embeddings of the teacher model for more informative knowledge than merely using the Softmax outputs. The usage of embeddings for distillation enables the student to observe the learning process of the teacher through the derivation and transformation of the embeddings. It provides an alternative perspective to guide the student in learning representation, other than imitating the labels in output space or relational topological information.嵌入。一些工作采用了教师模型中间层的学习节点嵌入来指导学生模型的学习,而不是logits和图结构。为了说明,T2-GNN和SAIL[Hoo et al.,2023;Yu et al.,2022]最大限度地提高了教师模型和学生模型中同一节点嵌入的一致性。SAIL[Yu et al.,2022]旨在迫使节点嵌入和节点特征的一致性。GraphAKD[He et al.,2022a]利用对抗性学习将教师模型的节点表示从局部和全局视图提取到学生模型。RDD[Zhang et al.,2020]强制学生模型直接模拟教师模型的整个节点嵌入,以获得比仅使用Softmax输出更具信息性的知识。使用嵌入进行蒸馏使学生能够通过嵌入的推导和转换来观察老师的学习过程。它提供了一个替代的视角来指导学生学习表征,而不是模仿输出空间或关系拓扑信息中的标签。Comparison. It is essential to understand the impact of each type of knowledge and how different kinds of knowledge benefit the student model in a complementary manner. To demonstrate, using logits as distilled knowledge has a similar motivation and effect to label smoothing and model regularization [ Muller et al., 2019; Ding et al., 2019 ] , which also offers additional training targets in addition to the ground truth labels. Structured-based knowledge exploits the relationships between nodes to capture the complex graph topological information, forcing the student model to focus more on graph structures than information in the output space and hidden layers. Embeddings as distilled knowledge enable the student model to mimic the intermediate workflow of the teacher model, providing extra knowledge of the learning process that happened prior to the generation of the final output.比较。了解每种类型的知识的影响,以及不同类型的知识如何以互补的方式有益于学生模型,这一点至关重要。为了证明,使用logits作为提取知识与标记平滑和模型正则化具有相似的动机和效果,除了ground truth标签之外,它还提供了额外的训练目标。基于结构化的知识利用节点之间的关系来捕捉复杂的图拓扑信息,迫使学生模型更多地关注图结构,而不是输出空间和隐藏层中的信息。嵌入为提取的知识使学生模型能够模仿教师模型的中间工作流,提供在生成最终输出之前发生的学习过程的额外知识。3.2 Who to WhomAfter determining what knowledge to distill, we need to define the teacher and student as well as decide the distillation schemes. In particular, we discuss them from the perspectives of teacher-free and teacher-to-student.在确定蒸馏哪些知识后,我们需要定义教师和学生,并决定蒸馏方案。特别是,我们从teacher-free and teacher-to-student的角度来讨论它们。Teacher-free. Teacher-free corresponds to the situation that a student model can learn knowledge from itself without an external teacher model. Usually, teacher-free knowledge distillation refers to self-distillation based on the knowledge extracted from a single model such as distilling knowledge between different layers [Chen et al., 2021b ] or different graph structures [ Wang et al., 2022] . Specifically, with the aim of overcoming the over-smoothing issue, GNN-SD [Chen et al., 2021b ] extracts and transfers the neighborhood discrepancy knowledge between layers of a single network in order to distinguish node embeddings in deep layers from their neighbor embeddings. CKD [Wang et al., 2022 ] develops two collaborative distillations including an intra-meta-path module to distill the regional and global knowledge within each meta-path and an inter-meta-path module to transfer the regional and global patterns among different meta-paths. In addition, some methods build an ensemble teacher using multiple versions of the model itself without introducing an external teacher model while still benefiting from the advantages of distillation. For example, RDD [Zhang et al., 2020] presents a self-boosting framework based on ensemble learning to incorporate the node and edge reliabilities. Teacher-free alleviates the need for an external teacher model and enforces the model to focus on the in-depth knowledge utilization in the model itself.Teacher-free对应的情况是,学生模式可以在没有外部教师模式的情况下从自己身上学习知识。通常,Teacher-free知识蒸馏是指基于从单个模型中提取的知识的自蒸馏,例如在不同层之间蒸馏知识[Chen et al.,2021b]或不同的图结构[Wang et al.,2022]。具体而言,为了克服过度平滑问题,GNN-SD[Chen et al.,2021b]提取并传输单个网络各层之间的邻域差异知识,以区分深层中的节点嵌入与其邻域嵌入。CKD[Wang et al.,2022]开发了两种协作蒸馏,包括提取每个元路径内的区域和全局知识的元路径内模块和在不同元路径之间传递区域和全局模式的元路径间模块。此外,一些方法使用模型本身的多个版本来构建集成教师,而不引入外部教师模型,同时仍然受益于蒸馏的优势。例如,RDD[Zhang et al.,2020]提出了一种基于集成学习的自增强框架,以结合节点和边缘的可靠性。Teacher-free减轻了对外部教师模型的需求,并强制该模型专注于模型本身的深入知识利用。Teacher-to-Student. The teacher-to-student distillation framework aims to distill knowledge from one or multiple teacher models to a student model. To demonstrate, we analyze and compare the impact of teacher numbers, different model structures, and offline and online distillations. One or multiple teachers. Most KDG methods rely on the standard one-teacher framework to conduct knowledge distillation [ Yan et al., 2020; Yang et al., 2020; Zhang et al., 2022b; Yang et al., 2022; Yu et al., 2022; Tian et al., 2023b] , in which they try to transfer information from a well-trained teacher to the student. For example, NOSMOG [Tian et al., 2023b] intends to distill an MLP student from a pre-trained GNN teacher. Recently, several works investigate the use of multiple teacher models to provide comprehensive knowledge for the student model. For example, ROD [ Zhang et al., 2021] and MSKD [ Zhang et al., 2022a] leverage multiple teachers to encode the different levels of localities or different topological semantics at different scales. MulDE [ Wang et al., 2021 ] introduces a group of hyperbolic KGE models and integrates their knowledge to train a smaller KGE model. LTE4G [ Yunet al., 2022 ] assigns multiple expert GNN models to different subsets of nodes considering both the class and degree longtailedness. T2-GNN [Huo et al., 2023] proposes two teacher models to provide feature-level and structure-level guidances for the student. BGNN [ Guo et al., 2023 ] takes the multiple generated GNN models from previous steps as teachers to supervise the training of the student model. Multiple teachers may transfer more knowledge than a single teacher, but they will likely introduce noisy knowledge into the student model, thereby decreasing its robustness.Teacher-to-Student蒸馏框架旨在将知识从一个或多个教师模型提取到一个学生模型。为了证明这一点,我们分析和比较了教师人数、不同的模型结构以及离线和在线提取的影响。大多数KDG方法都依赖于标准的one teacher框架来进行知识蒸馏,在这种方法中,他们试图将信息从训练好的教师传递给学生。例如,NOSMOG[Tian et al.,2023b]打算从一名经过预培训的GNN教师中提取一名MLP学生。最近,一些工作调查了使用多种教师模型为学生模型提供全面知识的情况。例如,ROD[Zhang et al.,2021]和MSKD[Zhang等人,2022a]利用多个教师在不同尺度上对不同级别的位置或不同拓扑语义进行编码。MulDE[Wang et al.,2021]引入了一组双曲型KGE模型,并集成他们的知识来训练一个较小的KGE模型。LTE4G[Yuet al.,2022]将多个专家GNN模型分配给考虑类别和程度长期性的不同节点子集。T2-GNN[Hoe et al.,2023]提出了两种教师模型,为学生提供特征层次和结构层次的指导。BGNN[Guo et al.,2023]将之前步骤中生成的多个GNN模型作为教师来监督学生模型的训练。多个教师可能比单个教师传递更多的知识,但他们可能会将嘈杂的知识引入学生模型,从而降低其鲁棒性。Teacher and student structures. KDG approaches adopt different teacher and student structures for distinct purposes. First, some KDG methods distill the knowledge from a larger GNN teacher to a smaller GNN student for compression [ Yan et al., 2020; Yang et al., 2020; He et al., 2022a; Joshi et al., 2022; Zhuang et al., 2022]. Second, with the target of lessening the dependence on the graph structure and reducing GNN latency caused by message passing, several works introduce an MLP as the student and achieve outstanding performance [Tian et al., 2023b; Zhang et al., 2022b; Zheng et al., 2022]. Third, a number of KDG models focus on improving the model performance in situations where the student holds the same structure as the teacher. To demonstrate, FreeKD [ Feng et al., 2022 ] and Alignahead [ Guo et al., 2022a ] train two shallower GNNs simultaneously to guide each other with each one can be the teacher or student. KDGA [ Wu et al., 2022 ] and EDGE [ Rezayi et al., 2021 ] adopt the same structures for the teacher and student but with different input data. In particular, KDGA utilizes the node features and augmented structure as input to the teacher, whereas the student only takes the original structure. EDGE takes an augmented knowledge graph with text information as input to the teacher while the student model uses the original knowledge graph without additional information. Despite having the same structure, these methods resort to richer data to provide supplementary knowledge to improve the student. Furthermore, KGEM methods are employed to fully capture the triplets connections in knowledge graphs [Wang et al., 2021].教师和学生结构。KDG方法采用不同的教师和学生结构来达到不同的目的。首先,一些KDG方法将知识从较大的GNN教师提取到较小的GNN学生进行压缩。其次,为了减少对图结构的依赖,减少消息传递引起的GNN延迟,几项工作引入了MLP作为学生,并取得了优异的表现。第三,许多KDG模型侧重于在学生与教师持有相同结构的情况下提高模型性能。为了证明这一点,FreeKD[Feng et al.,2022]和Alignahead[Guo et al.,2012a]同时训练两个较浅的GNN,以相互指导,每个GNN可以是老师或学生。KDGA[Wu et al.,2022]和EDGE[Rezayi et al.,2021]对教师和学生采用相同的结构,但输入数据不同。特别地,KDGA利用节点特征和扩充结构作为教师的输入,而学生只采用原始结构。EDGE采用具有文本信息的增强知识图作为对教师的输入,而学生模型使用没有附加信息的原始知识图。尽管具有相同的结构,这些方法还是利用更丰富的数据来提供补充知识,以提高学生的水平。此外,采用KGEM方法来完全捕捉知识图中的三元组连接[Wang et al.,2021]。Offline and online distillations. Online distillation refers to the distillation scheme in which both the teacher model and the student model are trained end-to-end, as opposed to offline distillation, in which the teacher model is pre-trained and used to facilitate the training of students without any additional update for the teacher. The majority of existing KDG methods adhere to the prevalent offline distillation [ Zhang et al., 2022b; Yang et al., 2020; Yan et al., 2020; Wu et al., 2022], whereas only a small number of studies attempt to design the online distillation scheme. For example, ROD [Zhang et al., 2021] proposes to assemble a teacher model using predictions of multiple students and leverages the ensemble teacher to train these students. In this way, the teacher and students can be updated alternatively. FreeKD [Feng et al., 2022 ] builds two collaboratively shallower GNNs with the desire to exchange knowledge between them via reinforcement learning, so that they can be optimized together and enhance each other. Similarly, Alignahead [ Guo et al., 2022a ] devises two student models and updates them in an alternating training procedure, in order to circumvent the demand for the pre-trained teacher model. In general, the teacher-to-student framework has been the basis of most KDG methods, which can be easily tailored to achieve the two objectives and extended for various applications.离线和在线蒸馏。在线蒸馏是指对教师模型和学生模型进行端到端训练的蒸馏方案,而离线蒸馏则是对教师模型进行预训练,用于促进学生的训练,而无需对教师进行任何额外更新。大多数现有的KDG方法都坚持流行的离线蒸馏[Zhang et al.,2022b;Yang等人,2020;Yan et al.,2020;Wu等人,2022],而只有少数研究试图设计在线蒸馏方案。例如,ROD[Zhang et al.,2021]提出使用多个学生的预测来组合教师模型,并利用集合教师来训练这些学生。通过这种方式,教师和学生可以交替更新。FreeKD[Feng et al.,2022]构建了两个协作的浅层GNN,希望通过强化学习在它们之间交换知识,以便它们可以一起优化并相互增强。一般来说,teacher-to-student框架是大多数KDG方法的基础,这些方法可以很容易地进行定制以实现这两个目标,并可扩展到各种应用程序。Comparison. Compared to condensing GNNs, the teacherfree structure enables the student to distill knowledge by itself to achieve better performance, thereby avoiding the dependency on another teacher model and sidestepping the heavy computation costs. The reasons for better performance achievement are that distilling knowledge from the student itself can help the student converge to flat minima and prevent the vanishing gradient problem [ Zhang et al., 2019] . On the other hand, the teacher-to-student structure naturally fits the objective of model compression where a smaller student can be obtained, while still maintaining the capability to improve performance. For the number of teachers, employing multiple teachers enables the student to fuse information from diverse sources to establish a comprehensive understanding of the knowledge, similar to ensemble learning. However, how to trade off the instruction from different teachers and integrate them without performance degradation needs special designs. In contrast, a single teacher is sometimes better and more convenient by bypassing the intricacy of incorporating multiple ones. For the determination of teacher and student structures for KDG methods, GNNs demonstrate outstanding capability in capturing graph topological information and have become the most popular choice. Moreover, some methods introduce MLP as the student model to circumvent the scalability limitation imposed by GNNs or utilize KGEM to adapt to knowledge graphs. As long as the model performs well with the target graph data, the choice of the model structure is typically not a crucial aspect of KDG methods. For distillation schemes, offline distillation is typically used to transfer knowledge from a complex teacher model, whereas teacher and student models are comparable and can be trained concurrently in the setting of online distillation.比较。与压缩GNN相比,teacher-free结构使学生能够自己提取知识以获得更好的性能,从而避免了对另一个教师模型的依赖,避免了繁重的计算成本。取得更好表现的原因是,从学生身上提取知识可以帮助学生收敛到平坦极小值,并防止消失梯度问题[Zhang et al.,2019]。另一方面,teacher-to-student的结构自然符合模型压缩的目标,在模型压缩中可以获得较小的学生,同时仍然保持提高性能的能力。就教师数量而言,使用多名教师使学生能够融合来自不同来源的信息,以建立对知识的全面理解,类似于集体学习。然而,如何在不降低表现的情况下权衡不同教师的指导并将其整合,需要特殊的设计。相比之下,一个老师有时会更好、更方便,因为它绕过了将多个老师结合在一起的复杂性。对于KDG方法的教师和学生结构的确定,GNN在捕获图拓扑信息方面表现出卓越的能力,已成为最受欢迎的选择。此外,一些方法引入MLP作为学生模型,以规避GNN施加的可扩展性限制,或利用KGEM来适应知识图。只要模型对目标图数据表现良好,模型结构的选择通常不是KDG方法的关键方面。对于蒸馏方案,离线蒸馏通常用于从复杂的教师模型中转移知识,而教师和学生模型是可比较的,可以在在线蒸馏的环境中同时训练。3.3 How to DistillateAfter selecting the type of knowledge and determining the strategy of who to whom w.r.t. the teacher and student in the distillation, the next essential question is to decide how to develop an effective algorithm for distilling the obtained knowledge. In general, existing distillation algorithms can be categorized into three types: direct, adaptive, and customized distillations. We introduce them in the following discussion.在选择了知识类型并确定了在提取过程中教师和学生向谁进行提取的策略之后,接下来的关键问题是决定如何开发一种有效的算法来提取所获得的知识。一般来说,现有的蒸馏算法可以分为三类:直接蒸馏、自适应蒸馏和定制蒸馏。我们将在下面的讨论中介绍它们。Direct. Direct distillation refers to a type of distillation algorithm where the divergences between the knowledge of the teacher and the student are directly minimized to force the student fully mimic the teacher model. For example, many studies directly distill the node logits from the teacher to the student [ Yan et al., 2020; Zhang et al., 2022b; Wu et al., 2022; Yun et al., 2022; Huo et al., 2023; Dong et al., 2023; Tian et al., 2023b ] , while some others focus on directly distilling the node embeddings [ Rezayi et al., 2021; Zheng et al., 2022; Yu et al., 2022 ] . Compared to node classification in which the node logits are utilized, certain graph classification methods conduct the distillation by comparing the logits of all graphs [ Deng and Zhang, 2021; Zhuang et al., 2022]. In addition, LSP [ Yang et al., 2020] and Alignahead [ Guo et al., 2022a ] directly minimize the divergence of local structures between the teacher and the student. To preserve the graph structures, GKD [Yang et al., 2022 ] directly minimizes the Frobenius distance between Neural Heat Kernel matrices on the teacher and the student. Generally, direct distillation can be implemented easily to facilitate the straightforward knowledge transfer and regularize the training of the student.直接蒸馏是指一种蒸馏算法,其中教师和学生的知识之间的差异被直接最小化,以迫使学生完全模仿教师模型。例如,许多研究直接提取教师到学生的节点logits,而其他一些研究则专注于直接提取节点嵌入。与使用节点logits的节点分类相比,某些图分类方法通过比较所有图的logits来进行提炼。此外,LSP和Alignahead直接最小化教师和学生之间局部结构的分布。为了保持图结构,GKD[Yang et al.,2022]直接最小化教师和学生的神经热核矩阵之间的Frobenius距离。一般来说,直接蒸馏可以很容易地实现,以促进直接的知识转移,并正则学生的训练。Adaptive. Different from direct distillation, adaptive distillation provides a more flexible paradigm for conducting distillation by adaptively considering the significance of knowledge. For example, RDD [Zhang et al., 2020] proposes to distill the knowledge that the teacher learns reliably while the student learns incorrectly. FreeKD [ Feng et al., 2022] introduces an adaptive strategy to determine the selection of distillation direction as well as the propagated local structures between two shallower GNNs. GNN-SD [ Chen et al., 2021b] performs the self-distillation only when the magnitude of neighborhood discrepancy of the target layer is larger than that of the online layer. In addition, some KDG methods involving multiple teacher models employ an adaptive strategy to combine the knowledge of various teachers. For instance, ROD [Zhang et al., 2021] leverages a gate component to combine knowledge over different levels of localities. MulDE [ Wang et al., 2021 ] adaptively aggregates the prediction from multiple teachers and returns soft labels for students with relation-specific scaling and contrast attention mechanisms. MSKD [ Zhang et al., 2022a ] adaptively exploits the local structures from multiple teachers with an attentional topological semantic mapping design. Furthermore, a recent study BGNN [Guo et al., 2023 ] adaptively assigns value to the hyper-parameter temperature for each node with learnable parameters. Empowered by adaptive distillation, the informative knowledge can be selected and aggregated to train a more effective student model. Unlike direct distillation, adaptive distillation provides a more flexible and robust paradigm for mitigating the negative impact of less-informative or noisy knowledge.自适应。与直接蒸馏不同,自适应蒸馏通过自适应地考虑知识的重要性,为进行蒸馏提供了一种更灵活的范式。例如,RDD[Zhang et al.,2020]提出蒸馏教师学习可靠而学生学习错误的知识。FreeKD[Feng et al.,2022]引入了一种自适应策略来确定蒸馏方向的选择以及两个较浅GNN之间传播的局部结构。GNN-SD[Chen et al.,2021b]只有当目标层的邻域差异的大小大于在线层的邻域偏差的大小时,才执行自蒸馏。此外,一些涉及多个教师模型的KDG方法采用了自适应策略来结合不同教师的知识。例如,ROD[Zhang et al.,2021]利用门组件来组合不同级别的地方的知识。MulDE[Wang et al.,2021]自适应地聚合来自多个教师的预测,并使用特定关系的缩放和对比注意力机制为学生返回软标签。MSKD[Zhang et al.,2022a]通过注意拓扑语义映射设计自适应地利用来自多个教师的局部结构。此外,最近的一项研究BGNN[Guo et al.,2023]通过可学习的参数自适应地为每个节点的超参数温度赋值。通过自适应提炼,可以选择和聚合信息性知识,以培养更有效的学生模型。与直接蒸馏不同,自适应蒸馏提供了一种更灵活、更稳健的范式,用于减轻信息量较小或噪声较大的知识的负面影响。Customized. Apart from direct distillation and adaptive distillation, there are several methods adopting a variety of machine learning techniques to distill knowledge. For example, GraphAKD [He et al., 2022a] and DFAD-GNN [ Zhuang et al., 2022 ] follow the principle of adversarial learning to distinguish the student and teacher using a trainable discriminator instead of forcing the student network to precisely mimic the teacher network with manually designed distance functions. CKD [ Wang et al., 2022] proposes a collaborative KD method to incorporate the knowledge extracted within and between the meta-paths. G-CRD [Joshi et al., 2022] formulates the representation distillation as a contrastive learning task on pairwise relationships across the teacher and student embedding spaces. Typically, customized distillation enables diversified designs of KDG methods according to the distinct objective of tasks in different scenarios, which stimulates further studies to explore more distillation strategies.定制。除了直接蒸馏和自适应蒸馏之外,还有几种方法采用了各种机器学习技术来提取知识。例如,GraphAKD[He et al.,2022a]和DFAD-GNN[Zhuang et al.,2022]遵循对抗性学习的原则,使用可训练的鉴别器来区分学生和教师,而不是强迫学生网络使用手动设计的距离函数来精确模仿教师网络。CKD[Wang et al.,2022]提出了一种协作KD方法,以合并在元路径内和元路径之间提取的知识。G-CRD[Joshi et al.,2022]将表示提炼公式化为教师和学生嵌入空间中成对关系的对比学习任务。通常,定制蒸馏可以根据不同场景中任务的不同目标来实现KDG方法的多样化设计,这刺激了进一步的研究来探索更多的蒸馏策略。Comparison. Although direct distillation can achieve satisfactory performances in most cases by allowing the student model to directly mimic the teacher, it disregards the distinct importance of different knowledge, such as the fact that not all nodes in a graph contain the same amount of information. Therefore, even though direct distillation has the benefit of being simple and straightforward, merely using direct distillation can be sub-optimal and lack flexibility. Compared to direct distillation, adaptive distillation is more flexible by determining the weight and significance of different knowledge and combining them adaptively. This approach avoids the direct distillation's incapability to distinguish between different types of knowledge, but inevitably introduces additional computation costs, such as the dependency on a weighted gating module and the use of special distillation strategies. In addition, customized distillation provides another option for distilling the knowledge including using contrastive learning to implicitly preserve the graph topology, allowing researchers to develop personalized solutions for the target problem.比较 尽管在大多数情况下,通过允许学生模型直接模仿老师,直接蒸馏可以获得令人满意的性能,但它忽略了不同知识的明显重要性,例如图中并非所有节点都包含相同数量的信息。因此,即使直接蒸馏具有简单直接的好处,仅仅使用直接蒸馏可能是次优的,并且缺乏灵活性。与直接蒸馏相比,自适应蒸馏通过确定不同知识的权重和重要性并自适应地将其组合来更加灵活。这种方法避免了直接蒸馏无法区分不同类型的知识,但不可避免地会引入额外的计算成本,例如对加权门控模块的依赖和特殊蒸馏策略的使用。此外,定制蒸馏提供了另一种提取知识的选择,包括使用对比学习来隐式地保留图拓扑,使研究人员能够为目标问题开发个性化的解决方案。3.4 ApplicationsAs an effective technique in compressing the GNNs and improving their performance, KDG methods have been widely applied in various applications such as graph learning tasks and different fields of AI. For example, KDG methods can be naturally applied to node classification, graph classification, and link prediction tasks [Tian et al., 2023b; Zheng et al., 2022] . The node classification task aims to predict the category of nodes. Some common public benchmark datasets [ Zhang et al., 2022b ] are as follows: Cora, CiteSeer, and PubMed. The graph classification task focuses on predicting the label of graphs. Some example datasets are PROTEINS and Molhiv [ Hu et al., 2020] . The link prediction task attempts to predict whether two given nodes are connected by an edge [ Dong et al., 2022 ] , with datasets usually the same as those in the node classification task. In addition, KDG methods can be applied to various tasks on language and image data such as text classification [ Li et al., 2022a] and image classification [ Zhou et al., 2021 ] . To demonstrate, these works build a graph from the text and image data and then apply KDG methods to capture the relationships between words, sentences, or images. An example is constructing a graph by connecting messages in different languages from the node and semantic levels for multilingual social event detection [Ren et al., 2021 ] . Moreover, KDG methods can be introduced to jointly model multimodal content and relational information such as detecting illicit drug trafficker on social media [Qian et al., 2021].作为一种压缩GNN并提高其性能的有效技术,KDG方法已被广泛应用于各种应用,如图学习任务和人工智能的不同领域。例如,KDG法可以自然地应用于节点分类、图分类和链接预测任务[Tiang et al.,2023b;Zheng et al.,2022]。节点分类任务旨在预测节点的类别。一些常见的公共基准数据集[Zhang et al.,2022b]如下:Cora、CiteSeer和PubMed。图分类任务的重点是预测图的标签。一些示例数据集是蛋白质类和Molhiv[Hu et al.,2020]。链接预测任务试图预测两个给定节点是否通过边缘连接[Dong et al.,2022],数据集通常与节点分类任务中的数据集相同。此外,KDG方法可以应用于语言和图像数据的各种任务,如文本分类[Li et al.,2022a]和图像分类[Zhou et al.,2021]。这些工作从文本和图像数据构建了一个图,然后应用KDG方法来捕捉单词、句子或图像之间的关系。一个例子是通过从节点和语义级别连接不同语言的消息来构建图,用于多语言社交事件检测[Ren et al.,2021]。此外,可以引入KDG方法来联合建模多模式内容和关系信息,例如检测社交媒体上的非法贩毒者[Qian et al.,2021]。4 KDG Future Research DirectionsKDG is an emerging and rapidly developing research topic. Despite the recent success and the significant progress in KDG, there are still many challenges to be solved. This opens up a number of opportunities for future research directions. In this section, we describe and suggest some of them as follows:KDG是一个新兴且发展迅速的研究课题。尽管KDG最近取得了成功并取得了重大进展,但仍有许多挑战需要解决。这为未来的研究方向开辟了许多机会。在本节中,我们将对其中一些进行描述并提出以下建议:Explainability. Existing KDG methods aim at developing a condensed model or improving the model performance while none of them consider the model explainability. However, developing KDG methods with explainability is crucial for enhancing user trust and model dependability. For instance, it is worthwhile to investigate and explain why and how a particular distillation algorithm works well for a target application, so we can have better justifications for model designs. Potential approaches to provide interpretability include training an explainable student model [ Li et al., ,2022b ] or building another model to quantitatively explain the knowledge contributions [Haselhoff et al., 2021].可解释性。现有的KDG方法旨在开发精简模型或提高模型性能,但都没有考虑模型的可解释性。然而,开发具有可解释性的KDG方法对于增强用户信任和模型可靠性至关重要。例如,研究和解释特定的蒸馏算法为什么以及如何在目标应用中运行良好是值得的,这样我们就可以为模型设计提供更好的理由。提供可解释性的潜在方法包括训练可解释的学生模型或建立另一个模型来定量解释知识贡献[Haselhoff et al.,2021]。Transferability. Typically, the student model acquires domain-specific knowledge from the teacher and then leverages the knowledge to address a target problem. Although the knowledge can be beneficial for the target task, it may not apply to other tasks, thereby limiting the transferability of the student model. Therefore, how to determine the transferable common knowledge from the teacher and distill it to the student for various downstream applications require investigation. Designing distillation algorithms with better generalisability [He et al., 2022b ] or exploring transferable GNNs [Ruiz et al., 2020] are potential solutions.迁移性。通常,学生模型从老师那里获得特定领域的知识,然后利用这些知识来解决目标问题。尽管知识可能对目标任务有益,但它可能不适用于其他任务,从而限制了学生模型的可转移性。因此,如何从教师那里确定可转移的公共知识,并将其提取给学生,用于各种下游应用,需要进行研究。设计具有更好通用性的蒸馏算法[He et al.,2022b]或探索可转移GNN[Ruiz et al.,2020]是潜在的解决方案。Theoretical framework. Despite a huge number of KDG methods, the understanding of KDG such as theoretical analyses has not been investigated. To provide guidance for future method development and build a solid foundation, a sound theoretical framework is necessary and important for us to better comprehend KDG methods. In particular, a number of recent works on the knowledge distillation theory [ Allen-Zhu and Li, 2020; Phuong and Lampert, 2019] can serve as foundations for this research avenue.理论框架。尽管有大量的KDG方法,但对KDG的理解,如理论分析,尚未得到研究。为了为未来的方法开发提供指导并奠定坚实的基础,一个健全的理论框架对于我们更好地理解KDG方法是必要的和重要的。特别是,最近关于知识蒸馏理论的一些工作[Allen Zhu和Li,2020;Phuong和Lampert,2019]可以作为这一研究途径的基础。Applicability. Existing KDG methods typically work on homogeneous graphs, while many other types of graphs are less investigated such as heterogeneous graphs [Tian et al., 2023a] and temporal graphs [ Ma et al., 2022 ]. To improve the applicability of KDG methods to various types of graphs, it is essential to take into account different graph properties, such as the edges types and attributes, as well as to explore how to extract qualitative knowledge and implement an efficient distillation algorithm. Hence, utilizing appropriate distillation techniques for graphs with different properties is also a promising research direction.适用性。现有的KDG方法通常适用于同构图,而对许多其他类型的图的研究较少,如异构图[Tianet al.,2023a]和时态图[Ma et al.,2022]。为了提高KDG方法对各种类型图的适用性,必须考虑不同的图属性,如边类型和属性,并探索如何提取定性知识和实现有效的提取算法。因此,对具有不同性质的图使用适当的蒸馏技术也是一个很有前途的研究方向。Graph Distillation. Similar to distilling the knowledge from GNNs, knowledge from the graph data can also be distilled, i.e., graph distillation. The goal is to synthesize a small graph so that GNNs trained on top of it can achieve comparable performance while being extremely efficient. This line of research can benefit from the matching of training trajectories [Cazenavette et al., 2022] . In addition, techniques of graph pruning [Chen et al., 2021a ] and graph condensation [Jin et al., 2021] can be compared and introduced to distill comprehensive knowledge as well as construct a graph with rich information.图蒸馏。与从GNN中提取知识类似,也可以从图数据中提取知识,即图蒸馏。目标是合成一个小图,以便在其上训练的GNN可以在极其高效的同时获得可比的性能。这一研究领域可以受益于训练轨迹的匹配[Cazenavette et al.,2022]。此外,可以将图修剪技术[Chen et al.,2021a]和图压缩技术[Jin et al.,2021]进行比较和介绍,以提取全面的知识,并构建具有丰富信息的图。5 ConclusionKnowledge distillation on graphs (KDG), as an emerging research field, has attracted extensive attention and plays an important role in various application domains. This paper presents the first comprehensive survey on KDG. In particular, we introduce the bases including challenges and preliminaries as well as formally define the problem and objectives. We also thoroughly discuss, categorize, and summarize the existing works according to the proposed taxonomy. In addition, we share our thoughts on future directions. We hope this paper serves as a useful resource for researchers and advances the future work of KDG.图上的知识提取(KDG)作为一个新兴的研究领域,引起了人们的广泛关注,在各个应用领域发挥着重要作用。本文首次对KDG进行了全面的综述。特别是,我们介绍了基础,包括挑战和准备工作,并正式定义了问题和目标。我们还根据提出的分类法对现有工作进行了深入的讨论、分类和总结。此外,我们分享我们对未来方向的看法。我们希望本文能为研究人员提供有用的资源,并推动KDG未来的工作。发布于 2023-09-04 17:52・IP 属地四川深度学习(Deep Learning)图神经网络(GNN)机器学习赞同 1添加评论分享喜欢收藏申请转载文章被以下专栏收录Graph Learning仅个人整理,质量不高
百度知道 - 信息提示
百度知道 - 信息提示
百度首页
商城
注册
登录
网页
资讯
视频
图片
知道
文库
贴吧采购
地图更多
搜索答案
我要提问
百度知道>提示信息
知道宝贝找不到问题了>_
该问题可能已经失效。返回首页
15秒以后自动返回
帮助
| 意见反馈
| 投诉举报
京ICP证030173号-1 京网文【2023】1034-029号 ©2024Baidu 使用百度前必读 | 知道协议
KGD测试系统 - KGD测试方案 - KGD测试单元 | SPEA
KGD测试系统 - KGD测试方案 - KGD测试单元 | SPEA
中文
en
it
es
中文
de
产品
电子电路产业
飞针测试机
ICT测试机
光机电一体化测试仪
自动电池测试设备
LED照明测试仪
大功率电路板测试机
功能& EOL测试机
高质量的软件
电路板自动化移载设备
半导体产业
模拟/数字/混合信号,线性自动化测试机
功率器件测试机
MEMS 测试单元
上料&卸料高精密分选台
智能卡& 身份证测试仪
KGD 测试单元
双面晶圆探针和测试仪
半导体负载板测试机
探针卡测试机
特殊产品
电路板代测
针对特殊产品的客户定制化测试机
行业
行业
航空航天与国防
汽车行业
服务器控件
EMS, CEM, SUBCONS
电源板测试
⠀
照明
医疗类
微机电系统& 传感器测试 & 校准
手机&通信
触摸屏
服务&支持
服务&支持
寻求支持
线上支持
测试应用服务
工程服务
网店
产品报告
新闻&活动
关于SPEA
招聘
供应商
供应商行为准则
企业社会责任
道德规范
关于SPEA
关于SPEA
公司介绍
工业4.0
全球分布
供应商
供应商行为准则
供应链
认证
质量
环境
健康安全
企业社会责任
可持续发展报告
行為守則
SPEA:心系未来
SPEA社区
SPEA体育
招聘
招聘
到SPEA工作
SPEA招聘
实习项目
联系我们
中文
en
it
es
中文
de
联系我们
KGD 测试单元
完整解决方案,确保 KGD 品质与性能
SPEA 开发了专用设备,在晶圆切割后彻底测试每个单独的裸片。全面的 KGD 测试单元可满足 KGD 级别的高-低功率器件的静态和动态测试要求。它们包括精准的参数测试、光学测试、切割晶圆的来往自动处理、器件接触和温度调节。
完整 KGD 测试的重要性
供应符合所有产品规格和可靠标准的合格裸片(KGD)的需求,要求测试程序能够保证零瑕疵漏网。
为确保供应 KGD 器件的良品率,必须将最终测试阶段所使用的缺陷筛查的同等性能和方法带到裸片级别。
晶圆级别测试已经不足够了
一般在晶圆级别的裸片上所执行的参数测试并不足以消除故障率,这是由于裸片接触裸片的界面可能会影响测试性能,无法达到功率元件所需的电压和电流额定值,无法执行所有必要的动态测量以确保器件性能符合数据表规格。这将不可避免地转化为良率损失、组装缺陷、参数漂移,我们需要在这些方面增加切割操作引入的缺陷风险。
专用 KGD 测试设备
SPEA 的 KGD 测试单元经专门设计,可将完整的测试范围、精确度参数测试与大批量制造流程所要求的吞吐量和自动化结合起来。其成果是经过全面测试、合格的 IC 器件,能够满足完整的数据表规范,保证零缺陷。
KGD 级别 100% 的测试覆盖范围,同样适用于功率元件
KGD 测试单元不仅可执行完整的直流参数测试,还可执行交流测试、UIS / UIL Avalanche、RG / CG 和短路测试。
为执行验证器件开关参数的动态测试,测试设备能够同时用大电流和高电压调节被测器件。为防止因高功率耗散而可能造成的任何危险,测试单元配备了全方位的保护装置,包括过流和过压保护电路、输出继电器命令的电压监控器、开路/短路检查、触针保护。
ISO 测试资源
最高达 12kV/10mA DC
最高达 10kV/20mA AC
带有输出矩阵的高压安全开关可限制放电电流,确保测试仪在各种条件下安全运行
交流测试电源
最高达 6kV,最高达 3kA
短路测试最高达 10kA
最高达 8 个独立可编程的栅极驱动器
2 至 8个多脉冲
10GS/s 采样率数字化仪
直流测试电源
中等功率 V/I 电源(± 100V,± 2A,可组合高达 16A),带有 8 个驱动器和 8 个完全浮动且独立的数字化仪
高达 20kV 的高压发生器
高达 4kA 脉冲的大电流发生器,带有自动斜坡发生器,可缩短测试时间
整个连接链的寄生电感低于 25nH
测试仪连接布局、接口和接触器的设计旨在最大限度地缩短被测器件和测试仪器之间的距离,并尽量降低整个信号路径上的杂散电感值。换流过程中电压过冲的可能性被降到最低,因为在任何情况下,可能的过电压值总是低于击穿电压。
精确探测,无电弧
测试室采用压缩空气调节大气,经专门设计,以抑制可能损坏器件和测试设备的任何电弧现象。
为确保对单个裸片进行精确探测,基于世界一流的视觉对准,执行精细间距探针对准。探针系统在测试前自动对齐每个裸片,以消除其位置的 X、Y 轴和 Theta 旋转的任何变化。
切割晶圆的自动处理
拾取和放置处理器
基于线性运动技术的集成取放头用于保证快速准确的处理。元件从晶圆(在蓝色胶带或 UV 胶带上)移动到测试室,在那里它们会被接触并进行全面测试。
测试后,合格的裸片可以放置在薄膜框架上,重新构成原始晶圆格式,或者在经过精确的光学检测后,可以将它们封装在卷带上。相同的机器配置可以灵活地用于两种输出选项,无需更改设置。
转塔式处理器
基于转塔的结构以紧凑的尺寸提供了极大的配置灵活性,以执行高速和高精度的测试、检查和精加工。
可以直接从薄膜框架晶圆上处理切割裸片,在重组后的晶圆上输出或在磁带上完成,使该解决方案成为 KGD 测试的理想选择。该处理器包括多个电气测试站(最多 10 个),具有热调节选项,可在特定温度下进行测试。
输入/输出完全可配置
可用多种不同的输入/输出模块 – 在拾取和放置或转塔处理器上 – 让测试单元可适应任何过程。输入可以来自晶圆或托盘,而输出可以是晶圆、托盘或卷盘上的胶带,可以在同一设备配置上配备多个输入/输出模块。
光学和几何测试
在电气测试之前对器件的六个侧面进行光学检查,以验证组件的存在和位置,通过 ID 代码跟踪器件,并筛选出存在尺寸、外观或模具缺陷的元件。
在测试阶段也进行顶部和底部的视觉检查,以检查器件的存在和对齐,而准确的激光测量可让设备控制探测力和压缩。
测试后,可以在输出阶段进行进一步的完整光学检查。在带上精加工完成后,还会进行袋内检查和带封检查,以保证器件可以直接运送给客户,无需进一步检查。
温度调节
通常需要温度测试,以检测受热变化影响的器件中的缺陷,或应用要求的测试条件,例如汽车标准的要求。
SPEA 测试单元采用灵活的无氮温度调节系统,可以在 -50 至 + 180°C 的温度范围内加热或冷却部件。每个站点的专用温度控制避免温度在不同被测器件之间散布,确保所有器件的测试条件一致。
现在预订您的免费样本,或联系我们咨询更多信息
联系 SPEA 团队
相关产品
DOT800T
拾取&放置测试处理器
服务热线:177-0621-8970
关于SPEA关于SPEA
分支机构分支机构
招聘招聘
实习项目实习项目
新闻&活动新闻&活动
订阅我们的新闻
我同意我的个人数据得到处理 - 阅读隐私政策
SPEA企业电影
使用条款 |
条款及细则 |
Cookie政策 |
隐私
苏州斯贝亚自动检测设备有限公司
© 2022 SPEA S.p.A., Via Torino 16, 10088 Volpiano (TO) – Italy
Fiscal Code and VAT Reg No 10418540018, REA Number TO – 1131788
Share Capital 12.000.000€ i.v.
info@spea.com spea@pec.spea.info
苏公网安备 32059002004189号 苏ICP备2022039280号
Design & Code by dsweb.lab
SPEA 信息请求
First name*
Last name*
Email *
Phone *
Job title *
Company *
Country *
—Seleziona un'opzione—AfghanistanAlbaniaAlgeriaAmerican SamoaAndorraAngolaAnguillaAntigua & BarbudaArgentinaArmeniaArubaAustraliaAustriaAzerbaijanBahamas, TheBahrainBangladeshBarbadosBelarusBelgiumBelizeBeninBermudaBhutanBoliviaBosnia & HerzegovinaBotswanaBrazilBritish Virgin Is.BruneiBulgariaBurkina FasoBurmaBurundiCambodiaCameroonCanadaCape VerdeCayman IslandsCentral African Rep.ChadChileChinaColombiaComorosCongo, Dem. Rep.Congo, Repub. of theCook IslandsCosta RicaCote d'IvoireCroatiaCubaCyprusCzech RepublicDenmarkDjiboutiDominicaDominican RepublicEast TimorEcuadorEgyptEl SalvadorEquatorial GuineaEritreaEstoniaEthiopiaFaroe IslandsFijiFinlandFranceFrench GuianaFrench PolynesiaGabonGambia, TheGaza StripGeorgiaGermanyGhanaGibraltarGreeceGreenlandGrenadaGuadeloupeGuamGuatemalaGuernseyGuineaGuinea-BissauGuyanaHaitiHondurasHong KongHungaryIcelandIndiaIndonesiaIranIraqIrelandIsle of ManIsraelItalyJamaicaJapanJerseyJordanKazakhstanKenyaKiribatiKorea, NorthKorea, SouthKuwaitKyrgyzstanLaosLatviaLebanonLesothoLiberiaLibyaLiechtensteinLithuaniaLuxembourgMacauMacedoniaMadagascarMalawiMalaysiaMaldivesMaliMaltaMarshall IslandsMartiniqueMauritaniaMauritiusMayotteMexicoMicronesia, Fed. St.MoldovaMonacoMongoliaMontserratMoroccoMozambiqueNamibiaNauruNepalNetherlandsNetherlands AntillesNew CaledoniaNew ZealandNicaraguaNigerNigeriaN. Mariana IslandsNorwayOmanPakistanPalauPanamaPapua New GuineaParaguayPeruPhilippinesPolandPortugalPuerto RicoQatarReunionRomaniaRussiaRwandaSaint HelenaSaint Kitts & NevisSaint LuciaSt Pierre & MiquelonSaint Vincent and the GrenadinesSamoaSan MarinoSao Tome & PrincipeSaudi ArabiaSenegalSerbiaSeychellesSierra LeoneSingaporeSlovakiaSloveniaSolomon IslandsSomaliaSouth AfricaSpainSri LankaSudanSurinameSwazilandSwedenSwitzerlandSyriaTaiwanTajikistanTanzaniaThailandTogoTongaTrinidad & TobagoTunisiaTurkeyTurkmenistanTurks & Caicos IsTuvaluUgandaUkraineUnited Arab EmiratesUnited KingdomUnited StatesUruguayUzbekistanVanuatuVenezuelaVietnamVirgin IslandsWallis and FutunaWest BankWestern SaharaYemenZambiaZimbabwe
State (only for USA)
Inquiry *
Priority *
Normal (4-6 business days)Urgent (24 hours)High (2-3 business days)
How do you prefer to be contacted *
emailphonepersonal visit
Level of interest *
Curiosity / General interestBegin investigationUnder purchase processReady to buy
Can we ask you a few more questions about your inquiry? (optional)
Product Interest
Electronic Board Test
Flying Probe TestersIn-circuit Board TestersPower Board TestersOptomechatronics TesterFunctional & EOL TestersTest Operating SystemProcess Control SWAutomatic Board Handling Equipment
MEMS & Semiconductor Test
MEMS/Sensors Test CellMEMS StimulusPick and Place Test HandlersMEMS Device-Oriented TestersPower Module Test CellSmart Card Test CellAnalog Mixed Signal TestersID device wafer testerID device final testerReel to Reel Handlers
Special Products
New technologiesInnovative productsSmartphoneWearable DevicesTouch DisplayKeyboard and Push Buttons
Are you a SPEA customer?
YesNo
Do you want to receive our newsletter?
YesNo
How did you find us?
—Seleziona un'opzione—Direct mailReferralSearch enginesSocial MediaTrade showOthers
Privacy
Consent to data processing for the purposes described in this informative report of reference is optional, but any refusal to consent may make it impossible to perform the activities associated with the said processing, as described in greater detail at point 3 - processing and purposes, of the privacy informative report, which should be referred to for further details. With regard to the information in the informative report, I declare that I have received the information laid down by the regulations in force concerning, in particular, my rights as recognized by the law and in the capacity of a data subject.
Read informative report
产品与服务 - 报告表
所有标有星号(*)的字段都必须填写。 谢谢您的合作.
Company information
Company name *
City *
State/Province *
User information
Name *
Surname *
Function *
Email *
Phone *
System information
System family *
Flying Probe TestersIn-cicrcuit Board TestersFunctional TestersQSoftLeonardo OSMEMS Sensors Test CellsMEMS Sensors Stimulus UnitsPick and Place HandlersMEMS Device-Oriented TestersPower Module test CellsSmart Card Test CellsSemiconductor IC TestersSmart Card HF UHF TestersReel to Reel Handlers
Serial number *
Type *
SuggestionComplaint
For*
SystemSoftwareApplicationServiceOthers
Priority*
NormalUrgentEmergency
Report description (please describe which is the impact on the equipment use)*
Effects*
Suggestion*
Privacy
With regard to the purposes described in the informative report of reference , it is pointed out that consent to the data processing is necessary for the pursuit of such purposes, since it is strictly functional to establishing and managing the relationship. The refusal of the data subject will make it impossible for SPEA to carry out the processing. I, being aware that consent to the data processing is necessary for the pursuit of the purposes described in the informative report and having received the information laid down by the regulations in force concerning, in particular, my rights as recognized by the law and in the capacity of a data subject:
Read Privacy Policy