生成对抗网络的发展与挑战.

董永生, 范世朝, 张宇, 马尽文 - Journal of Signal …, 2023 - search.ebscohost.com
… generative adversarial net⁃ work from several representative aspects,and further we pointed
out the possible improvement … 而Transformer 结构使用的是多头自注意力机 制,对比CNN,采用…

基于形态的具身智能研究: 历史回顾与前沿进展

刘华平, 郭迪, 孙富春, 张新钰 - 自动化学报, 2023 - aas.net.cn
… Structure-aware transformer policy for inhomogeneous multi-task reinforcement learning.
In: Proceedings of the 10th International Conference on Learning Representations (ICLR). …

[PDF][PDF] 基于局部特征融合的小样本分类方法

董杨洋, 宋蓓蓓, 孙文方 - 中国图象图形学报 - cjig.cn
… In order to utilize the local features of image and improve the … fusion module based on
Transformer architecture to learn and fuse … Adversarial feature hallucination networks for few-shot …

[PDF][PDF] 人脸识别反欺诈研究进展

张帆, 赵世坤, 袁操, 陈伟, 刘小丽, 赵涵捷 - 软件学报, 2022 - jos.org.cn
… 进行建模, 并使用自适应增强 Adaboost (adaptive boosting)算法[108]测量眼睛的闭合程度以…
[118]; 然后采用自 动化的视觉转换器(vision transformer)[119]代替手工特征提取的方式, 从上述…

强化学习中的注意力机制研究综述.

夏庆锋, 许可儿, 李明阳, 胡凯… - Journal of Frontiers …, 2024 - search.ebscohost.com
… has attracted an increasing attention in algorithmic research … (spatial attention and generative
adversarial network,SAGA)的… 有跨视图注 意力机制的Transformer模型.该机制将空间注意力 …

[PDF][PDF] 元强化学习研究综述

陈奕宇, 霍静, 丁天雨, 高阳 - 软件学报, 2023 - jos.org.cn
… 近年来,Transformer 模型越来越多地用于深度强化学习的记忆功能,并展现出远优于LSTM,GRU
等传统记忆网络的泛化性能.Parisotto 将基于注意力机制的Transformer 模型[76]用作跨情节…

[PDF][PDF] 深度神经网络FPGA 设计进展, 实现与展望

焦李成, 孙其功, 杨育婷, 冯雨歆, 李秀芳 - 计算机学报, 2022 - cjc.ict.ac.cn
… However, along with the increasing of neural network layers, a large number of parameters
… 文献 [162]主要针对基于Transformer 的大规模语言表示 提出了一种有效的加速框架Ftrans. 该…