程旭瀚 王军
摘 要 :本文提出了一种基于MLP-ELM的GaN HEMT小信号特性的建模方法,首先基于GWO建立了一种混合参数提取法,解决20元等效电路参数提取不精确的问题;然后利用等效电路模型获得的S参数结合MLP-ELM建立了一种精确的经验模型,有效解决等效电路模型无法在多偏置范围内表征小信号特性的问题;最后利用MLP-ELM建立了一种基于经验的小信号模型.经过仿真分析得出,本文所建模型精度高,在整个偏置范围内有效且具备等效电路模型不具有的泛化能力.
关键词 :等效电路模型; 灰狼优化算法; S参数; 多层感知器; 极限学习机
中图分类号 :TN386 文献标识码 :A DOI : 10.19907/j.0490-6756.2023.044003
收稿日期: 2022-11-08
基金项目: 国家自然科学基金(69901003); 四川省教育厅科研基金(18ZA0502)
作者简介: 程旭瀚(1996-), 男, 研究方向为微波器件建模及应用. E-mail: chengxh702020@163.com
通讯作者: 王军. E-mail: wangjun197008@163.com
An MLP-ELM-based modeling method for the small-signal properties of GaN HEMT
CHENG Xu-Han, WANG Jun
(Southwest University of Science and Technology College of Information Engineering, Mianyang 621010, China)
An MLP-ELM-based modeling method for GaN HEMT small-signal properties is proposed. First, a hybrid parameter extraction method is developed based on the GWO to solve the problem of inaccurate extraction of 20-element equivalent circuit parameters; then the S-parameters obtained from the model are combined with MLP-ELM to establish an accurate empirical model, which effectively solves the problem that the equivalent circuit model cannot represent the small signal properties in the multi-bias range; finally, an empirical-based small signal model is developed with MLP-ELM. The simulation results show that the proposed model has high precision, is effective in the whole bias range and has the generalization ability that the equivalent circuit model lacks.
Equivalent circuit model; Gray wolf optimization algorithm; Scattering parameters; Multilayer perceptron; Extreme learning machine
1 引 言 GaN HEMT具有高电子饱和速度和宽带隙等特点,广泛应用于如功率放大器和低噪声放大器等电路模块.设计这些模块需要可靠、准确的小信号特性建模方法,常用的方法是等效电路模型. 该模型的准确性依赖于模型拓扑与参数提取的方法 [1-3].由于20元等效电路结构复杂,直接提取法并不适用,因此基于优化的提取过程是非常必要的 [2,3].这种将优化方法与直接提取法相结合的方法被称为混合参数提取法.在模型优化问题上群智能算法是可行且有效的 [4]. 针对器件建模问题,研究者基于群智能算法提出了众多的混合参数提取法 [5-7],其中灰狼优化算法(Gray Wolf Optimization,GWO)具备鲁棒性强和结构简单等特点 [8],广泛应用于器件建模 [5]和人工神经网络(Artificial Neural Network,ANN)优化等场景 [9].因此本文基于GWO解决20元等效电路参数提取不精确的问题.
基于知识(等效电路模型、经验模型等)的ANN建模方法备受关注 [10,11]. 常用的ANN模型为多层感知器(Multilayer Perceptron, MLP) [11,12], 但该模型的准确性与泛化能力依赖于网络结构 [13]. 因此本文基于GWO明确MLP的最优网络结构.由于极限学习机(Extreme Learning Machine,ELM)具备的快速训练优势 [14], 本文建立一种基于MLP-ELM表征小信号特性的方法. 该方法通过ELM进一步提高MLP模型的精度与泛化能力. 由于将等效电路模型作为先验知识的方法会缺失部分偏置点的信息 [11],因此将等效电路模型获得的 S 参数结合MLP-ELM建立一种与偏置相关的经验模型. 该模型能准确地表征所有偏置条件下的等效电路 S 参数, 然后建立一种基于经验的MLP-ELM模型.该模型能在全偏置范围内准确表征小信号特性,并具备等效电路模型不具有的泛化能力.
本文基于MLP-ELM建立一种GaN HEMT小信号模型,实验数据的来源是厂商提供的ADS模型. 最后,通过不同模型的 S 参数对比分析, 说明本文方法的有效性和实用性.
2 基于GWO的20元等效电路建模流程
本文采用图1所示的20元等效电路模型作为GaN HEMT的小信号模型,其中虚线框内的为本征部分,其余部分为寄生部分. 该模型的寄生部分参数是偏置无关的,它们分别为考虑了衬垫连接的电容 C pgs、 C pds和 C pgd,考虑了栅极、漏极和源极空气桥连接所引入的电容 C pgsi、 C pdsi和 C pgdi,模拟金属化电感的 L g、 L s和 L d,由于接触等引起的电阻 R g、 R d和 R s;本征部分的参数是偏置相关的,它们分别为栅极和2DEG沟道电荷形成的平行板电容 C gd和 C gs,漏极和源极之间的交叠电容 C ds,分布沟道电阻 R i和 R gd,沟道电阻 R ds(1/ G ds),栅极与漏极之间的直流跨导 g m和信号传输时间延迟常数 τ .
本文选取低频条件下( f <0.5 GHz)的“Cold-pinch”( V DS=0 V, V GS< V T)条件对寄生电容进行提取. 这种情况下的电路拓扑等效为Π型网络 [3]. 将该偏置点下的 S 参数转为 Y 参数,根据二端口网络可得栅源端的支路总电容 C gso、栅漏端总电容 C gdo与源漏端总电容 C dso. 其中, 栅源端的支路总电容 C gso为 C pgs、 C pgsi与 C gs的电容之和, 同理可得 C gdo与 C dso. 在高频的零偏条件下( V GS=0 V, V DS=0 V),将外围的寄生电容 C pgs、 C pgd和 C pds去嵌后,20元等效电路模型等同于T型网络 [3]. 将该偏置点下的 S 参数转为 Z 参数,根据二端口网络得到寄生电感、寄生电阻与 Z 参数的关系 [3],根据线性拟合提取相关参数值. 由于图1的寄生电容个数过多,因此需要额外的关系才能求解.采用文献[15]设定电容值的经验关系.
C pgs= C pds
C pgdi=2 C pgd
C gs= C gd
C pdsi=3 C pgs (1)
由上述所知,通过遍历不同的 C pgs与 C p gd的值 [15]( C pgs从0到0.5 C dso, C p gd从0到0.5 C gdo),再结合寄生电感与寄生电阻的提取方法得到不同 C pgs与 C p g d条件下的所有寄生参数值. 根据误差公式将最小误差下的值作为寄生参数优化算法的初始值. 误差公式为 [15]
(2)
其中,
(3)
W ij= max (|S mea 12|,|S mea 12|), i,j=1,2;i≠j
1+|S mea ii|, i=1,2 (4)
其中, ||·|| 1表示矩阵的1范数; N 表示实验数据总数; Δ S 表示 S 参数实验值(上标为mea)与 S 参数仿真值(上标为sim)之间的差值. 由于式 (1)~(4)的经验等式和电路拓扑等导致存在误差,需要优化算法减小误差. 本文采用GWO进行参数优化. 这里简要阐述该算法的原理: 它模拟了灰狼物种的领导阶层 [8],其中 α 、 β 和 δ 狼是解决方案优于其他狼( ω )的领导者,它们的位置向量( X α 、 X β 和 X δ )用于更新其他狼的位置向量的方法如下所示 [8].
X 1(t)-X α(t)-A 1|CX α(t)-X(t)|
X 2(t)-X β(t)-A 2|CX β(t)-X(t)|
X 3(t)-X δ(t)-A 3|CX δ(t)-X(t)| (5)
A=2a·r 1-a (6)
C=2·r 2 (7)
X(t+1)= X 1(t)+X 2(t)+X 3(t) 3 (8)
其中, 表征狼的位置向量为 X =[ x 1, x 2,… x n ] T; n 表示优化问题的维度; r 1和 r 2为[0,1]中的随机向量; t 为当前迭代次数; 参数 A 1、 A 2和 A 3由公式(6)得到. 由于电容之间存在约束条件(各个支路总电容),因此对寄生参数 C pgs、 C pds、 C pgd、 C pgsi、 C pgdi、 C pdsi、 L s、 L d、 L g、 R s、 R d和 R g进行优化( n =12). 其中基于GWO的优化算法的适应性函数为
E S= 1 N ∑ 2 i=1,2 ∑ 2 j=1,2 ∑ 2 n=1 S mea ij,n-S sim ij,n S mea ij,n (9)
群体智能算法需要一种初始化策略生成初始种群, 而一个好的初始种群会影响寻优过程的收敛速度与最终解的精度. 由于GWO的最终优化值的精度依赖于初始狼群的位置,而初始狼群位置的生成依赖于直接提取法得到的初始值,因此本文采用迭代的思路将GWO产生的最终值作为下一次GWO初始狼群位置的依据. 这种方法称为基于迭代的灰狼优化算法(I-GWO). 最终寄生参数的提取流程如图2所示.
在寄生参数优化过程中,采用一次迭代的GWO方法,其中狼群数目 W N 为15, 最大迭代次数 Max iter 为100.明确最小| S|条件下的 C pgs与 C p gd的初始值后便可以计算其他寄生参数值并进行优化算法的流程. 最终得到的寄生参数初始值与优化值如表1所示.
本征参数与偏置电压有关,一般通过 S-Y-Z 的参数转换,逐步剥离寄生参数的影响 [2]得到本征参数,并根据文献[3]可得本征参数的计算公式. 本文采用直接提取法得到的重要本征参数的初始值与偏置 V GS和 V DS的关系如图3所示. 其中 V GS的范围是-4~0 V,间隔0.5 V; V DS的范围是从 0~28 V,间隔1 V.
由图3可知,在 V DS恒定的情况下,当 V GS向夹断区移动时, C gs值下降;当 V GS接近0 V时, C gs显著增加. 在恒定的 V GS条件下,由于漏极处的正电荷阻碍了电容效应 [16],电容 C gd随着V DS的增加而降低. g m 的非对称钟形是GaN HEMT的一个众所周知的特征 [15,16]. 在低 V DS区域,可以观察到电容 C ds为负值. 这种情况同样出现在文献[2,16]的结果中. 上述的结果表明, 本文所提的本征参数初始值具有物理意义,为后续的优化提供良好的起点.
图4a为针对寄生参数优化问题采用传统GWO与I-GWO所得的 E s与迭代次数的关系. 由图可以明显地看出, I-GWO较传统GWO能显著地降低电容经验关系导致的模型误差; 在时间成本相似的情况下(传统GWO的平均时间为49.3 s,I-GWO的平均时间为48.9 s),相同的迭代次数I-GWO优化的效果明显好于传统GWO. 由于本征参数与频率存在的相关性导致一定的误差 [15],因此采用I-GWO进一步提高本征参数的精度. 具体流程与图2的参数优化部分类似,其中优化的对象为本征参数 C gs、 C gd、 C d s、 R i、 R gd、 g m、 g ds与 τ ( n =8). 采用一次迭代的GWO的方法,其中狼群数目 W N 为15, 最大迭代次数 Max iter 为200. 本文以 V GS= -3 V, V DS从2到4 V,间隔1 V的偏置条件为例,得到不同偏置条件下适应性函数 E s与迭代的关系,如图4b所示. 其中区域1为第一次GWO的 E s与迭代次数的关系,区域2为第二次GWO的 E s与迭代次数的关系. 由图4b可知,只用一次GWO的情况下,各个狼群位置可能难以摆脱当前位置而陷入局部最优; 通过第二次GWO生成随机的初始狼群位置的方法,使其可能逃离局部最优点. 上述说明了I-GWO提升了参数优化问题的能力. 文献[5]使用传统GWO对寄生参数值进行优化并采用直接提取法得到本征参数值. 该方法未考虑本征参数的频率依赖性导致的模型误差,而图4b说明了直接提取法所得模型的误差较高(迭代次数为0时的 E s). 本文采用I-GWO优化本征参数值可以明显减少上述误差,同时说明I-GWO在优化寄生参数能力上优于传统GWO. 上述验证了本文所提的I-GWO在等效电路建模场合的有效性与实用性.
3 等效电路模型结合MLP-ELM的建模流程
高精度的等效电路模型能更好地表征所提偏置点下的 S 参数特性. 但等效电路模型是单偏置相关的 [11],将等效电路模型作为先验知识会缺失其他提取的偏置点信息. 因此将20元等效电路模型的 S 参数作为训练数据,基于MLP-ELM训练并产生与偏置相关的经验模型,如图5所示. MLP部分由输入层、输出层以及 m 个隐藏层组成 [12].文中的MLP模型的输入为 V GS、 V DS与频率 f ,输出为4个 S 参数,其中每个 S 参数用实部与虚部表示. ELM模型在结构上是单隐藏层的MLP [14],其作用是优化MLP的输出,因此输入层与输出层的个数均为8. MLP与ELM模型的区别在于训练的过程. MLP训练的是隐藏层与输入层、隐藏层与隐藏层以及输出层与隐藏层的连接权重;而ELM只训练输出层与隐藏层的连接权重. 设定隐藏层的激活函数为式(10)所示的双曲正切函数,输出层的激活函数为式(11)所示的线性函数.
f(x)= e x- e -x e x+ e -x (10)
f(x)=x (11)
本文采用分阶段训练ANN的方式,先建立最优MLP模型,再根据最优MLP建立最优ELM模型. 因此本质上MLP与MLP-ELM模型是分离的. 本文基于GWO寻找MLP的最优网络结构,包括隐藏层个数 m 与各个隐藏层神经元个数 h 1, h 2,…, h m ,并通过遍历隐藏层的方法得到ELM的最优隐藏层神经元个数 N ELM. 定义以下目标函数来评估MLP模型的准确性与泛化能力 [13].
F=(E train +E test )·K (12)
其中, E train为训练误差; E test为泛化误差. 用相对误差绝对值的平均值计算 E train和 E test.
E train= 1 N train ∑ N train i=1 Y pre i-Y train i Y train i (13)
E test= 1 N test ∑ N test i=1 Y pre i-Y test i Y test i (14)
其中, N train为训练数据个数; N test为测试数据个数;上标pre的参数为模型的预测值;上标train和test分别表示训练集和测试集的实验值. 对于具有较低 E train的MLP模型,可能存在预测值与目标值相差甚远的情况. 因此式(12)中的惩罚因素 K 的计算方法为 [13]
K=1+0.33N avg +N bad (15)
其中, N avg是相对误差0.15~0.25的测试集的数量; N bad是相对误差高于0.25的测试集的数量 [13]. MLP与ELM模型的训练环境为MATLAB 2017b,CPU为AMD-4800H,运行内存为16 GB. 在训练之前,需要将数据进行归一化处理. 该方式有利于ANN的训练 [12]. 训练数据与测试数据均来自于20元等效电路模型生成的 S 参数. 其中 V GS的范围为-4~0 V,间隔0.5 V,共计9个偏置点; V DS的范围为0~28 V,间隔1 V,共计29个偏置点;频率的范围为0.1~6 GHz,间隔0.1 GHz,共计60个频率点;每一个 V GS偏置值下共下有29个 V DS的偏置点. 这样组成的( V GS, V DS)偏置条件下共有60个频率点下的 S 参数,因此用于训练的数据共计15 660组. 将80%的数据作为训练集,20%的数据作为测试集.
由于优化的是MLP结构,因此数值必须保证为整数. 本文的MLP的隐藏层层数 k 约束为3层,每一层的神经元个数的下界约束 lb 为(1,1,1),上界约束 ub 为(20,20,20). 根据约束条件随机生成灰狼的初始位置,每一个灰狼的初始位置代表着不同结构的MLP模型,并为这些模型分配不同的训练集与测试集. 最后将最小F下的灰狼位置作为MLP的最优结构. 其中GWO参数的设定是:狼群数目 W N 为15,最大迭代次数 Max iter 为15.
保持训练集与测试集一致的情况下,将最优结构的MLP模型的输出作为ELM模型的输入,通过ELM模型进一步提高MLP模型的精度与泛化能力. ELM的具体原理如文献[14]所述. 由于ELM的精度与泛化能力受隐藏层神经元个数 N ELM影响,因此本文根据步长 N step与最大上限 N max遍历ELM的隐藏层个数,通过判断训练集与测试集的均方误差( MSE )确定ELM的最优结构. MSE 的计算式为
MSE= 1 M ∑ M i=1 Y i-Y pre i 2 (16)
其中 M 为训练集或测试集的样本个数, Y i 为训练集或测试集的实验值.图6为等效电路模型结合MLP-ELM的建模流程图,其中包括基于GWO的MLP结构优化流程与ELM的最优隐藏层遍历流程.
设定 N step为10, N ELM的起始点为10, N max为1000,根据图6所示的流程得到评估MLP模型精度与泛化能力的 F 与迭代次数的关系,如图7所示. 由图7可以看到, F 最终收敛到较低的值,因此得到MLP的最优神经网络结构为3-13-13-19-8. 图8所示的是训练集与测试集的均方误差 MSE 与ELM隐藏层个数的关系. 通过分析可得, 随着隐藏层个数的递增,训练集的 MSE 递减而测试集的 MSE 先快速递减然后保持一定的收敛趋势,最后呈现上升的趋势. 这表明ELM模型的隐藏层个数会影响模型的精度与泛化能力. 因此根据测试集的 MSE 较低值确定ELM的最优隐藏层个数为630.
最终建立的经验模型的数学表达式 S emp为
S emp =f ELM (S MLP ,w ELM )
S MLP =f MLP (V GS ,V GS ,f,w MLP ) (17)
其中, w ELM为最优ELM的权重; w MLP为最优MLP的权重. S MLP为偏置相关的函数,因此经验模型 S emp解决了等效电路模型无法在多偏置范围内表征小信号特性的问题.
4 基于经验模型的MLP-ELM建模流程
为表征GaN HEMT的小信号特性,本文将经验模型作为先验知识与MLP-ELM结合,建立一种基于经验的MLP-ELM模型,如图9所示. 该模型利用经验模型提供的附加信息,提高模型的精度,并且在常用的MLP模型的基础上通过ELM进一步提高模型的精度与泛化能力.
该模型包含的MLP-ELM模型的输入为 V GS、 V DS、频率 f 和 S emp,输出为 S 参数的实部与虚部. 由于经验模型 S emp能有效地表征等效电路模型的小信号特性,因此可以简化MLP模型的复杂度,从而减小训练时间. 基于GWO优化MLP最优结构的设定为:MLP的隐藏层层数约束为2层; lb 为(1,1);上界约束 ub 为(20,20);狼群数目 W N 为15;最大迭代次数 Max iter 为15. ELM的最优结构的遍历方法与第三部分设定一致. 训练MLP与ELM的训练数据与测试数据结构与第三部分一致,但数据的来源为厂商提供的ADS模型,因此将图6的20元等效电路模型的 S 参数替换为上述的数据,再根据图6的流程可得MLP-ELM模型的结构. MLP模型的结构为11-14-16-8,ELM模型的结构为8-530-8.
5 实验验证与分析
根据本征参数优化方法得到如表2所示的在 V GS=-3 V, V DS=5 V的本征参数初始值与优化值.
根据图1的20元等效电路模型,将表1的寄生参数优化值与表2的本征参数值带入等效电路模型中,得到在频率 f 范围为0.1~6 GHz, V GS=-3 V, V DS=5 V偏置条件下的20元等效电路模型的 S 参数值,并将相同条件的( V GS, V DS, f )带入基于经验的MLP-ELM模型,该模型得到的 S 参数值与实验数据进行对比,如图8a所示. 由图可以明显地看出,经过GWO参数优化后的20元等效电路能很好地表征GaN HEMT的小信号特性. 其中 S 参数的平均相对误差为4.23%,满足建模要求. 同时,基于经验的MLP-ELM模型比等效电路模型的精度更高,说明了所提方法的有效性. 我们进一步分析MLP-ELM方法的有效性. 表3所示的是基于MLP-ELM的经验模型在不同网络搭建阶段下,由等效电路模型获得的 S 参数和实验数据作为训练集与测试集的 MSE . 由表3很明显地看出,在MLP阶段下的训练集与测试集的MSE已满足建模需求. 在ELM阶段下训练集与测试集的 MSE 较MLP阶段得到优化, 这说明MLP-ELM模型的精度与泛化能力比MLP模型更好. 为说明MLP与ELM结合的必要性,使用等效电路模型获得的 S 参数作为数据源,采用遍历隐藏层的方式建立基于ELM的经验模型. 最终得到的ELM结构为3-2700-8,其在训练集的MSE与测试集的MSE分别为1.4923×10 -4和2.3273×10 -4. 这说明了该模型在训练集与测试集的精度上远低于MLP模型与MLP-ELM模型. 图8b所示的是 V GS=-2 V, V DS=6 V的偏置条件下,基于MLP的经验模型、基于ELM的经验模型、基于MLP-ELM的经验模型和20元等效电路模型的 S 参数对比图. 由该图可知, 基于MLP-ELM的方法比基于MLP和ELM的方法更能准确地表征等效电路的 S 参数,且基于MLP的方法在拟合程度上明显优于基于ELM的方法. 这说明了针对 S 参数建模仅采用ELM结构是低精度的,而将ELM优化MLP模型则显著提高精度. 这也表明了采用ELM优化MLP模型的可行性.
使用实验数据作为数据源,采用遍历隐藏层的方式建立基于经验的ELM模型,则最终得到的ELM结构为11-2150-8. 其在训练集与测试集的 MSE 分别为4.3232×10 -5和3.1189×10 -5,说明了该模型在训练集与测试集的精度上远低于MLP模型与MLP-ELM模型. 图8c所示的是 V GS= -2.5 V, V DS=28 V的偏置条件下,基于经验的MLP-ELM模型、基于经验的MLP模型、基于经验的ELM模型与实验数据的 S 参数对比图. 该偏置条件的实验值不包含在训练集与测试集之中. 分析可得,ELM-MLP模型较MLP和ELM模型具备更好的泛化能力,即该模型具备预测未测量偏置电压 S 参数的良好能力. 上述分析表明,在基于相同经验(基于MLP-ELM的经验模型)的场合下ELM优化MLP模型的可行性. 因此,通过ELM优化MLP的方法可以较好地提高泛化能力.
上述结果表明,基于MLP-ELM的建模方法不仅适合数据驱动的场合,也适合基于经验的场合,说明了本文方法的实用性.
6 总 结
本文提出了一种基于MLP-ELM的GaN HEMT小信号特性的建模方法,在建模过程中建立了三种模型. 第一个是20元等效电路模型. 该模型的精度通过混合参数提取法得到有效提高,建模的方法为复杂拓扑的参数提取提供了基础. 第二个是基于MLP-ELM的经验模型. 该模型有效解决等效电路模型无法在多偏置范围内表征小信号特性的问题,并且验证了通过ELM优化MLP模型的精度与泛化能力的有效性. 第三个是基于经验的MLP-ELM模型. 该模型通过改进等效电路作为经验模型的方法,最终准确的表征实际的GaN HEMT的小信号特性,并具备等效电路模型不具有的泛化能力. 因此,基于MLP-ELM的方法为后续建立微波晶体管小信号模型提供了基础与经验.
参考文献:
[1] 王林, 王军, 王丹丹. 40纳米MOSFET毫米波等效电路的弱反区关键参数提取[J]. 四川大学学报: 自然科学版, 2017, 54: 523.
[2] Poluri N, Desouza M M, Venkatesan N, et al . Modelling challenges for enabling high performance amplifiers in 5G/6G applications [C]// 2021 28th International Conference on Mixed Design of Integrated Circuits and System. Lodz, Poland: Department of Microelectronics and Computer Science, Lodz University of Technology, 2021.
[3] 闻彰, 徐跃杭, 徐锐敏. 氮化镓功率器件小信号模型参数提取算法研究[J]. 电波科学学报, 2015, 30: 772.
[4] 张庆华, 龙伟, 李炎炎, 等. 基于鲸鱼算法优化LSSVM的铣刀磨损监测[J]. 四川大学学报: 自然科学版, 2022, 59: 012005.
[5] Jarndal A. Graywolf optimization-based modeling technique applied to GaN high mobility electron transistors [J]. IEEE J Electron Devi, 2021, 9: 968.
[6] Hussein A S, Jarndal A H. Reliablehybrid small-signal modeling of GaN HEMTs based on particle-swarm-optimization [J]. IEEE Trans Comput Aided Des Integrated Circ Syst, 2018, 37: 1816.
[7] Zhang J, Hou X, Liu M, et al . Hybrid small-signal modeling of GaN HEMTs based on improved genetic algorithm [J]. Microelectron J, 2022, 127: 105513.
[8] Mirjalili S, Mirjalili S M, Lewis A. Grey wolf optimizer [J]. Adv Eng Softw, 2014, 69: 46.
[9] Mirjalili S. How effective is the Grey Wolf optimizer in training multi-layer perceptrons [J]. Appl Intell, 2015, 43: 150.
[10] 戚军军, 吕红亮, 张玉明, 等. 基于人工神经网络的有源器件建模概述[J]. 微纳电子与智能制造, 2021, 3: 36.
[11] Marinkovic Z, Pronic-Rancic O, Markovic V. Bias-dependent hybrid PKI empirical-neural model of microwave FETs [J]. Int J Electron, 2011, 98: 1399.
[12] Zhang Q J, Gupta K C, Devabhaktuni V K. Artificial neural networks for RF and microwave design-from theory to practice [J]. IEEE T Microw Theory, 2003, 51: 1339.
[13] Benardos P G, Vosniakos G C. Optimizing feedforward artificial neural network architecture [J]. Eng Appl Artif Intel, 2007, 20: 365.
[14] Huang G B, Zhu Q Y, Siew C K. Extreme learning machine: theory and applications [J]. Neurocomputing, 2006, 70: 489.
[15] Jarndal A, Kompa G. A new small-signal modeling approach applied to GaN devices [J]. IEEE T Microw Theory, 2005, 53: 3440.
[16] Khusro A, Hashmi M S, Ansari A Q, et al . An accurate and simplified small signal parameter extraction method for GaN HEMT [J]. Int J Circ Theor App, 2019, 47: 941.