| 1 | 1/1 | 返回列表 |
| 查看: 938 | 回復(fù): 0 | |||
張一123新蟲 (初入文壇)
|
[交流]
人工智能領(lǐng)域開展標(biāo)準化研究
|
|
基于深度學(xué)習(xí)的復(fù)雜背景雷達圖像多目標(biāo)檢測 人工智能技術(shù)與咨詢 昨天 本文來自《系統(tǒng)工程與電子技術(shù)》,作者周龍等 摘 要:針對傳統(tǒng)雷達圖像目標(biāo)檢測方法在海雜波及多種干擾物組成的復(fù)雜背景下目標(biāo)分類識別率低、虛警率高的問題,提出將當(dāng)前熱點研究的深度學(xué)習(xí)方法引入到雷達圖像目標(biāo)檢測。首先分析了目前先進的YOLOv3檢測算法優(yōu)點及應(yīng)用到雷達圖像領(lǐng)域的局限,并構(gòu)建了海雜波環(huán)境下有干擾物的艦船目標(biāo)檢測數(shù)據(jù)集,數(shù)據(jù)集包含了不同背景、分辨率、目標(biāo)物位置關(guān)系等條件,能夠較完備地滿足實際任務(wù)需要。針對該數(shù)據(jù)集包含目標(biāo)稀疏、目標(biāo)尺寸小的特點,首先利用K-means算法計算適合該數(shù)據(jù)集的錨點坐標(biāo);其次在YOLOv3的基礎(chǔ)上提出改進多尺度特征融合預(yù)測算法,融合了多層特征信息并加入空間金字塔池化。通過大量對比實驗,在該數(shù)據(jù)集上,所提方法相比原YOLOv3檢測精度提高了6.07%。 關(guān)鍵詞:深度學(xué)習(xí); 雷達圖像; 目標(biāo)檢測; YOLOv3 0 引 言 在軍事偵察、目標(biāo)打擊領(lǐng)域,對雷達圖像中海上艦船目標(biāo)檢測研究一直備受關(guān)注。由于海洋環(huán)境的復(fù)雜性,刻畫海雜波特性難度大,同時,考慮海上環(huán)境下還存在各種人為干擾物,目標(biāo)背景復(fù)雜,雷達回波信雜比低,都對海上目標(biāo)檢測帶來了難度[1]。傳統(tǒng)的雷達圖像目標(biāo)檢測一般利用先驗知識通過候選區(qū)域提取特征。經(jīng)典的恒虛警檢測(constant false alarm detection,CFAR)檢測只對背景信息統(tǒng)計建模,沒有考慮對目標(biāo)信息的完整建模,只是利用目標(biāo)成像區(qū)域的部分特征來檢測,沒有充分利用全局特征,漏警率較高[2];后續(xù)對CFAR算法的改進主要集中在更完備的特征利用,例如1992年ROBEY F C等人利用似然比準則構(gòu)建自適應(yīng)匹配濾波(adaptive matched filter,AMF)[3];2014年SHUI P L等人通過構(gòu)建三維特征空間進一步提高檢測精度[4];顧丹丹等提出基于積分圖像的快速CFAR算法,相比同類算法提高了運算速度[5];針對高分辨率雷達圖像中水面艦船目標(biāo)的檢測,HOU B等人提出多尺度自適應(yīng)選取區(qū)域的CFAR算法,具有較好的檢測效果[6]。另一類基于模式識別的目標(biāo)檢測方法通過某種匹配規(guī)則將訓(xùn)練樣本與待測樣本比對,例如,2012年劉寧波等人提出基于分形可變步長的最小二乘法的檢測算法[7]。利用圖像的多幀信息累計檢測也是一種有效方法,例如,CHEN X L等人利用目標(biāo)在距離域和多普勒域累計走動信息,提出基于Radon-分數(shù)階傅里葉變換的長時間相參積累檢測方法[8];陳唯實等人從信號處理的角度,基于時域特性和空域特性,針對低空非相參雷達弱小目標(biāo)檢測,取得了良好的表現(xiàn)[9-10]。傳統(tǒng)特征提取方法常常需要考慮特定環(huán)境下信息建;蛘咂ヅ湟(guī)則,但由于現(xiàn)代戰(zhàn)場環(huán)境的復(fù)雜多變,干擾對抗激烈,特定的統(tǒng)計建模和規(guī)則匹配只適用于特定的戰(zhàn)場環(huán)境,同時由于雷達圖像成像機理復(fù)雜,目標(biāo)物本身輪廓、方位、尺寸、背景干擾等的變化都會影響實際目標(biāo)檢測的結(jié)果,人工設(shè)定的信息建模和匹配規(guī)則難以通用,具有較大的局限。 2012年,AlexNet在ImageNet圖像分類大賽中一舉成名,證明了更深的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)具有更好的特征提取能力,遠超其他傳統(tǒng)特征提取方法[11]。此后,冠以深度學(xué)習(xí)的CNN發(fā)展如火如荼,誕生了ZFNet、VGGNet、ResNet[12-14],不斷刷新記錄,引領(lǐng)了新一代人工智能的浪潮;谏疃葘W(xué)習(xí)的特征提取方法以其強大的表達能力,迅速被應(yīng)用在各個領(lǐng)域。 2014年,GIRSHICK R首次將深度學(xué)習(xí)應(yīng)用于目標(biāo)檢測領(lǐng)域,提出基于候選區(qū)域的目標(biāo)檢測算法R-CNN[15],首先通過滑動窗口提取感興趣區(qū)域,再利用CNN提取特征做出目標(biāo)分類,相比傳統(tǒng)算法具有明顯的優(yōu)勢。現(xiàn)今,基于深度學(xué)習(xí)的目標(biāo)檢測技術(shù)成為這一領(lǐng)域的主流研究方法。從基于候選區(qū)域的R-CNN衍生出SPP-NET、Fast R-CNN、Faster R-CNN這一系列two-stage檢測方法[16-18],Faster R-CNN 通過候選區(qū)域網(wǎng)絡(luò)(region proposal network,RPN)選出感興趣區(qū)域,接入Fast R-CNN,與其共享卷積層,在VOC數(shù)據(jù)集上檢測精度達到了73%。然而這些網(wǎng)絡(luò)無法實現(xiàn)start-to-start訓(xùn)練,檢測速度慢,難以滿足實時檢測的要求。 2016年REDMON J提出的YOLO(You only look once)是one-stage的代表方法[19],實現(xiàn)了start-to-start的訓(xùn)練,將目標(biāo)檢測問題由分類問題轉(zhuǎn)換為回歸問題,檢測速度有了質(zhì)的提高,相比two-stage框架具有明顯速度優(yōu)勢。之后,基于one-stage系列的目標(biāo)檢測發(fā)展出YOLOv2、SSD、DSSD、RetinaNet、YOLOv3[20-24]。最新的YOLOv3同時兼顧檢測精度和速度,對于608×608分辨率的圖片,在COCO數(shù)據(jù)集上檢測精度達到了57.9%,檢測速度達到了20 fps,滿足實時檢測的需求。 提出將基于one-stage的最新目標(biāo)檢測框架YOLOv3引入到雷達圖像中的目標(biāo)檢測,將對YOLOv3作詳細介紹并分析應(yīng)用在雷達圖像目標(biāo)檢測的局限。構(gòu)建的雷達圖像數(shù)據(jù)集包含的都是小目標(biāo),為了提高小目標(biāo)的檢測精度,改進了YOLOv3預(yù)測層,在縱向上融合多層基礎(chǔ)特征提取網(wǎng)絡(luò)生成的特征圖,橫向上在每個預(yù)測層引入空間金字塔池化。同時,在一些細節(jié)上做出改進。最后,通過進一步對比實驗,驗證了所提方法的可行性。 1 基于YOLOv3的雷達圖像目標(biāo)檢測 2018年3月Redmon提出YOLOv3,是目前目標(biāo)檢測領(lǐng)域最具代表性的框架之一。YOLOv3首先通過基礎(chǔ)特征提取網(wǎng)絡(luò)darknet-53提取特征,得到一定尺度的特征圖,同時,在輸入圖像上設(shè)定與特征圖相同大小的grid cell,如果ground truth中某個目標(biāo)的中心坐標(biāo)落在哪個grid cell中,那么就由該grid cell來預(yù)測該目標(biāo),YOLOv3中每個grid cell都會預(yù)測3個bounding box,最終選擇和ground truth的IOU最大的bounding box來預(yù)測該目標(biāo)。YOLOv3類別預(yù)測結(jié)構(gòu)如圖1所示。 圖片 圖1 YOLOv3類別預(yù)測結(jié)構(gòu) Fig.1 Class prediction structure of YOLOv3 最終得到邊框坐標(biāo)計算公式為 bx=σ(tx)+cx (1) by=σ(ty)+cy (2) bw=pwetw (3) bh=pheth (4) 式中,(cx,cy)是網(wǎng)格的坐標(biāo)偏移量;(pw,ph)是預(yù)設(shè)的anchor box的邊長;最終得到邊框坐標(biāo)值是(bx,by,bw,bh);網(wǎng)絡(luò)學(xué)習(xí)目標(biāo)是(tx,ty,tw,th)。同時,將用于bounding box分類的Softmax函數(shù)用多個logistic分類器替代。 YOLOv3采用多尺度融合的方式做預(yù)測,分別融合了13×13、26×26、52×52大小的特征圖。基礎(chǔ)特征提取網(wǎng)絡(luò)采用作者設(shè)計的Darknet-53,該網(wǎng)絡(luò)借鑒殘差神經(jīng)網(wǎng)絡(luò)ResNet的residual結(jié)構(gòu),同時大量使用3×3和1×1結(jié)構(gòu),使得網(wǎng)絡(luò)層數(shù)加深,精度有了明顯提升。 YOLOv3的loss函數(shù)采用均方和誤差的方法整合了坐標(biāo)誤差、置信誤差和分類誤差,其數(shù)學(xué)抽象表達式為 圖片 (5) 通過引入置信誤差項,將網(wǎng)格是否包含目標(biāo)分開討論,很好地解決了坐標(biāo)誤差和分類誤差權(quán)值一致時訓(xùn)練不穩(wěn)定的問題。 當(dāng)前,基于深度學(xué)習(xí)的目標(biāo)檢測模型大都應(yīng)用于光學(xué)圖像,基本上在公開數(shù)據(jù)集如ImageNet、COCO、VOC做訓(xùn)練測試。 應(yīng)用到的圖像是雷達回波數(shù)據(jù)在距離多普勒域上的成像。圖像包含了海雜波等背景噪聲,艦船及人工干擾物相比整張圖像所占像素較少,且分布稀疏,因而會對目標(biāo)物檢測帶來影響,為了提高檢測準確率,往往同時會增加虛警;距離多普勒圖像中幾類目標(biāo)均沒有明顯的輪廓信息,只是集中分布的一簇亮點,特征稀少,相互難以區(qū)分,并且目標(biāo)之間的距離很近,容易形成誤判。雷達圖像信息量相比光學(xué)圖像嚴重不足,在成像機理、目標(biāo)特性、分辨率方面差異顯著,將公開的YOLOv3模型直接應(yīng)用于構(gòu)建的雷達圖像數(shù)據(jù)集,很難獲得理想的檢測結(jié)果。 2 改進YOLOv3結(jié)構(gòu) 2.1 數(shù)據(jù)集構(gòu)建 基于深度學(xué)習(xí)的目標(biāo)檢測技術(shù)對數(shù)據(jù)集具有很強的依賴性,數(shù)據(jù)集是否包含具有代表性的信息對后續(xù)的訓(xùn)練檢測直接起到?jīng)Q定性作用。所用數(shù)據(jù)從科研外場試驗中獲得,包含了不同背景條件、目標(biāo)物位置關(guān)系、分辨率、不同距離下的成像,共計6萬余張,能夠較完備地反映真實場景。按照訓(xùn)練集、測試集、驗證集7∶2∶1的比例劃分成3組,每組圖像均衡包含各種場景條件,最終得到了構(gòu)建的數(shù)據(jù)集。 圖片 圖2 數(shù)據(jù)集部分樣本 Fig.2 Some samples of data set 如圖2,圖片包含的背景噪聲為海雜波,需要識別的3類目標(biāo)為艦船和兩類干擾物。采用標(biāo)簽工具Yolo_mark對數(shù)據(jù)集進行標(biāo)注,用Target1、Target2、Target3分別表示艦船、干擾物1、干擾物2,位置信息包括目標(biāo)點的中心坐標(biāo)x,y以及默認框的寬高w,h。 2.2 聚類初始化先驗框 YOLOv3沿用了YOLOv2采用K-means聚類的方法初始化anchor boxes,有別于Faster R-CNN 和 SSD中采用人工設(shè)定,更加符合本身數(shù)據(jù)的特點。使用距離度量公式為 d(box,centroid)=1-IOU(box,centroid) (6) 式中,centroid 表示聚類(xj,yj,Wi,Hi);box表示真實框(xj,yj,wj,hj),j∈{1,2,…,N},i∈{1,2,…,k};IOU(box,centroid)表示真實框和預(yù)測框的交并比。 由于anchor boxes位置不確定,只利用寬和高做計算。重新計算公式為 圖片 (7) 圖片 (8) 式中,Ni是第i個聚類中心的真實框個數(shù)。 針對所給數(shù)據(jù)集,原始YOLOv3中9個anchor boxes對于3類目標(biāo)是合理的,在數(shù)量上不做改變。在該數(shù)據(jù)集上采用K-means得到的anchor boxes為(49,32)(37,61)(83,64)(57,109)(69,128)(73,170)(130,130)(156,111)(89,218),符合圖像扁長的特點,驗證了K-means方法的有效性。 2.3 改進多尺度特征預(yù)測結(jié)構(gòu) 針對雷達圖像中檢測目標(biāo)尺度小的特點,需要進一步加強對小目標(biāo)的檢測能力。在基礎(chǔ)特征提取網(wǎng)絡(luò)中,低層大尺度的特征圖具有更高的分辨率,能刻畫更準確的位置信息,但語義信息較少;高層特征圖包含更豐富的語義信息,但刻畫目標(biāo)點的位置信息較為粗略。因此,越靠前的特征圖對小目標(biāo)的位置刻畫越具代表性,即大尺度的特征圖對應(yīng)小目標(biāo),同時,更多特征圖的融合能進一步提高檢測精度。基于這一思想,在縱向上利用了Darknet-53產(chǎn)生104×104、52×52、26×26、13×13大小的特征圖,按照預(yù)測層越往后,利用的特征圖尺寸越大的思路,將預(yù)測層特征圖進行上采樣至同樣大小,然后做拼接,再做下一步標(biāo)準化卷積運算。 在橫向的每一層預(yù)測層上,借鑒SPP-Net的思想,采用空間金字塔池化,首先將原始圖像上的候選框映射到經(jīng)過多尺度融合后的特征圖上,映射關(guān)系為 (x,y)=(S*x′,S*y′) (9) 式中,(x,y)表示原始圖像上的坐標(biāo);(x′,y′)表示對應(yīng)特征圖上的坐標(biāo);S表示基礎(chǔ)特征提取網(wǎng)絡(luò)中所有步長的乘積。然后在映射后的區(qū)域利用不同大小的滑動窗口特征圖進行最大池化。 圖3為改進YOLOv3的結(jié)構(gòu)框圖;圖4示例了加入空間金字塔池化的尺度二預(yù)測框圖,在尺度不變的條件下,通過加入空間金字塔池化進一步拓寬了特征圖的通道數(shù),因而具有更強的細節(jié)特征描述能力。 圖片 圖3 改進YOLOv3結(jié)構(gòu) Fig.3 Improved YOLOv3 structure 圖片 圖4 改進尺度二預(yù)測結(jié)構(gòu) Fig.4 Improved scale 2 prediction structure 2.4 其他細節(jié) 學(xué)習(xí)率決定了loss下降到最優(yōu)值的速度快慢,如果學(xué)習(xí)率過大,容易出現(xiàn)超調(diào)現(xiàn)象,導(dǎo)致函數(shù)無法收斂,甚至發(fā)散;反之,如果學(xué)習(xí)率過小,可能會導(dǎo)致隨著迭代次數(shù)的增加loss基本不變,致使算法陷入局部最優(yōu)。為保證loss穩(wěn)定收斂,本文采取的策略是初始用小的學(xué)習(xí)率保證loss穩(wěn)定下降,訓(xùn)練至loss基本不動的時候調(diào)大學(xué)習(xí)率進一步降低loss,直到loss不再下降為止,此刻,收斂到最優(yōu)值。同時,開啟多尺度訓(xùn)練,提高網(wǎng)絡(luò)的泛化能力;ignore_thresh表示bounding box與ground true的重合度,為降低背景海雜波對目標(biāo)的虛警,提高檢測速度,將ignore_thresh調(diào)至0.7。 3 對比實驗及結(jié)果 本文實驗環(huán)境配置如表1所示。 表1 實驗環(huán)境配置 Table 1 Experimental environment configuration 圖片 3.1 模型的訓(xùn)練 為了能夠在同一標(biāo)準下對比兩者的實驗結(jié)果,應(yīng)用不同的學(xué)習(xí)率調(diào)整策略使其收斂至各自的最優(yōu)值,loss下降曲線如圖5所示。 圖片 圖5 Loss下降曲線對比 Fig.5 Comparison of the loss decline curve 從圖5可以看出,在該數(shù)據(jù)集上,YOLOv3訓(xùn)練波動幅度較大,loss提前收斂,在12 000 batches達到最優(yōu),loss降至0.28;相比之下,改進算法訓(xùn)練更加穩(wěn)定,loss波動幅度小,最終在15 000 batches收斂,loss降至0.17。表明了改進算法在該數(shù)據(jù)集上具有更強的特征表達能力。 3.2 模型的測試 算法采用的衡量指標(biāo)為查準率Precision、查全率Recall、交并比IOU、平均精度均值mAP,單張圖片響應(yīng)時間T。 部分衡量指標(biāo)計算公式為 圖片 (10) 圖片 (11) 圖片 (12) 式中,TP表示被判定為正樣本,事實上也是正樣本;FP表示被判定為正樣本,但事實上是負樣本;FN表示被判定為負樣本,但事實上是正樣本。 給定閾值Threshold=0.25,對兩組訓(xùn)練結(jié)果進行測試,衡量指標(biāo)結(jié)果對比如表2所示。 表2 衡量指標(biāo)結(jié)果對比 Table 2 Comparison of the measure results 圖片 可以看到,改進后的算法在前4項指標(biāo)上具有更好的表現(xiàn),尤其在mAP上具有明顯優(yōu)勢,相比原YOLOv3在本數(shù)據(jù)集上提高了6.07%;單張圖片響應(yīng)時間稍慢于原算法2.36 ms,這是因為在預(yù)測層進一步做了多尺度融合,增加了算法復(fù)雜度,考慮到場景需要,在軍事偵察和目標(biāo)打擊方面,精準識別目標(biāo)具有更重要的意義,一旦目標(biāo)出現(xiàn)誤判,不管響應(yīng)時間多快,對后續(xù)任務(wù)實施沒有任何價值,因此,犧牲小量的響應(yīng)時間換取更高的精度是有意義的。 部分測試結(jié)果對比如圖6所示。 圖片 圖6 部分測試結(jié)果對比 Fig.6 Comparison of some test results 如圖6所示,共選取了具有代表性的6組測試結(jié)果,每組中上下圖片分別表示原YOLOv3和改進方法。其中,圖6(a)和圖6(f)顯示了改進方法具有更好的邊框回歸;圖6(b)~圖6(d) 3組顯示了原YOLOv3在相對位置較遠時分別出現(xiàn)了誤判、漏判、虛警現(xiàn)象,改進方法很好地解決了這些問題;圖6(e)顯示了在目標(biāo)物相對位置很近時,可以直觀地看到,所提方法依然具有良好表現(xiàn)。 綜合以上實驗結(jié)果,充分說明了所提方法在該數(shù)據(jù)集上的優(yōu)異性能。 3.3 進一步實驗 為了體現(xiàn)每一步改進對結(jié)果的貢獻值,在上述實驗的基礎(chǔ)上,又進行了多組對比實驗,分析每一步改進的效果并作出解釋。具體實驗內(nèi)容及結(jié)果如表3所示。 表3 進一步實驗及結(jié)果 Table 3 Further experiments and results 圖片 其中,步驟1表示重新計算anchor boxes,步驟2表示預(yù)測層融合多層特征圖,步驟3表示預(yù)測層加入空間金字塔池化。從表3實驗結(jié)果可以看出,針對數(shù)據(jù)集重新計算錨點使平均準確率提高了1.45%,速度保持不變,這是由于符合數(shù)據(jù)集的邊框更有助于邊框的回歸,在考慮預(yù)測層結(jié)構(gòu)改進時,統(tǒng)一都使用重新計算的錨點;方法2說明了在預(yù)測層融合更多基礎(chǔ)特征提取網(wǎng)絡(luò)產(chǎn)生的特征圖的作用,對小目標(biāo)檢測效果提升是非常明顯的,相比方法1,mAP 提高了1.77%,響應(yīng)時間T增加了0.68 ms;方法3說明了加入空間金字塔池化對結(jié)果的影響,相比方法1,mAP 提高了2.69%,響應(yīng)時間T增加了1.79 ms。綜合以上改進,所提方法相比原YOLOv3 mAP 提高了6.07%,響應(yīng)時間T增加了2.36 ms。 4 結(jié) 論 將基于深度學(xué)習(xí)的檢測方法應(yīng)用到雷達圖像上是目前雷達目標(biāo)檢測領(lǐng)域研究的熱點方向,嘗試將最新的YOLOv3檢測框架應(yīng)用進來,構(gòu)建了距離多普勒域雷達圖像數(shù)據(jù)集,改進了YOLOv3預(yù)測層結(jié)構(gòu),融合多尺度特征圖,增加了空間金字塔池化。通過一系列對比實驗,所提方法相比原YOLOv3在該數(shù)據(jù)集上平均檢測精度提高了6.07%。 同時,改進也有其局限,網(wǎng)絡(luò)的加深使得訓(xùn)練和檢測速度變慢,訓(xùn)練得到的權(quán)重文件達到了246 MB,對于目前的硬件設(shè)備,距搭載在飛行器上應(yīng)用還有一段距離,下一步工作將圍繞網(wǎng)絡(luò)的輕量化應(yīng)用開展研究,在滿足工程應(yīng)用的基礎(chǔ)上,權(quán)衡檢測精度和速度對結(jié)果的影響,找到最優(yōu)的解決方案。 圖片 |
| 1 | 1/1 | 返回列表 |
| 最具人氣熱帖推薦 [查看全部] | 作者 | 回/看 | 最后發(fā)表 | |
|---|---|---|---|---|
|
[考研] 一志愿華中師范071000,325求調(diào)劑 +6 | RuitingC 2026-03-12 | 6/300 |
|
|---|---|---|---|---|
|
[考研] 環(huán)境工程調(diào)劑 +4 | 大可digkids 2026-03-16 | 4/200 |
|
|
[考研] 308求調(diào)劑 +3 | 是Lupa啊 2026-03-16 | 3/150 |
|
|
[考研] 344求調(diào)劑 +3 | knight344 2026-03-16 | 3/150 |
|
|
[考研] 22408總分284求調(diào)劑 +3 | InAspic 2026-03-13 | 3/150 |
|
|
[考研] 294求調(diào)劑 +3 | Zys010410@ 2026-03-13 | 4/200 |
|
|
[考研] 290求調(diào)劑 +4 | @將就將就看 2026-03-10 | 8/400 |
|
|
[考研] 學(xué)碩285求調(diào)劑 +13 | Wisjxn 2026-03-12 | 46/2300 |
|
|
[考研] 307求調(diào)劑 +7 | 超級伊昂大王 2026-03-10 | 7/350 |
|
|
[考研] 調(diào)劑 +3 | 13853210211 2026-03-10 | 3/150 |
|
|
[考研] 求調(diào)劑,一志愿江南大學(xué)環(huán)境工程085701 +3 | Djdjj12 2026-03-10 | 4/200 |
|
|
[考研] 327求調(diào)劑 +4 | Ffff03 2026-03-10 | 4/200 |
|
|
[考研] 復(fù)試調(diào)劑 +9 | Copy267 2026-03-10 | 9/450 |
|
|
[考研] 求調(diào)劑(材料與化工327) +4 | 愛吃香菜啦 2026-03-11 | 4/200 |
|
|
[考研] (081700)化學(xué)工程與技術(shù)-298分求調(diào)劑 +12 | 11啦啦啦 2026-03-11 | 35/1750 |
|
|
[考研] 求b區(qū)學(xué)校調(diào)劑 +3 | 周56 2026-03-11 | 3/150 |
|
|
[考研] 求調(diào)劑 資源與環(huán)境 285 +3 | 未名考生 2026-03-10 | 3/150 |
|
|
[考研] 化工學(xué)碩306求調(diào)劑 +9 | 42838695 2026-03-12 | 9/450 |
|
|
[考研] 工科0856專碩化學(xué)工程269能調(diào)劑嗎 +10 | 我想讀研11 2026-03-10 | 10/500 |
|
|
[考研] 0857環(huán)境調(diào)劑 +5 | 熠熠_11 2026-03-10 | 5/250 |
|