期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
Toward Robust and Efficient Low-Light Image Enhancement:Progressive Attentive Retinex Architecture Search
1
作者 Xiaoke Shang Nan An +1 位作者 Shaomin Zhang nai ding 《Tsinghua Science and Technology》 SCIE EI CAS CSCD 2023年第3期580-594,共15页
In recent years,learning-based low-light image enhancement methods have shown excellent performance,but the heuristic design adopted by most methods requires high engineering skills for developers,causing expensive in... In recent years,learning-based low-light image enhancement methods have shown excellent performance,but the heuristic design adopted by most methods requires high engineering skills for developers,causing expensive inference costs that are unfriendly to the hardware platform.To handle this issue,we propose to automatically discover an efficient architecture,called progressive attentive Retinex network(PAR-Net).We define a new attentive Retinex framework by introducing the attention mechanism to strengthen structural representation.A multi-level search space containing micro-level on the operation and macro-level on the cell is established to realize meticulous construction.To endow the searched architecture with the hardware-aware property,we develop a latency-constrained progressive search strategy that successfully improves the model capability by explicitly expressing the intrinsic relationship between different models defined in the attentive Retinex framework.Extensive quantitative and qualitative experimental results fully justify the superiority of our proposed approach against other state-of-the-art methods.A series of analytical evaluations is performed to illustrate the validity of our proposed algorithm. 展开更多
关键词 low-light image enhancement attentive Retinex framework multi-level search spacel progressive search strategy latency constraint
原文传递
语言认知与语言计算--人与机器的语言理解 被引量:3
2
作者 王少楠 丁鼐 +2 位作者 林楠 张家俊 宗成庆 《中国科学:信息科学》 CSCD 北大核心 2022年第10期1748-1774,共27页
语言理解是认知科学和计算机科学交叉领域共同关心的问题,但两个学科在选择具体研究问题时却十分不同.认知科学领域的研究侧重解析大脑的工作机制,更多地关注于描述大脑对语言的响应,缺乏对大脑语言功能整体化、系统化的研究,而计算机... 语言理解是认知科学和计算机科学交叉领域共同关心的问题,但两个学科在选择具体研究问题时却十分不同.认知科学领域的研究侧重解析大脑的工作机制,更多地关注于描述大脑对语言的响应,缺乏对大脑语言功能整体化、系统化的研究,而计算机科学家在选择研究问题时重点关注实际应用效能,往往忽略了对语言最本质规律的研究.那么,如何实现两种思路的交叉融合,为智能语言计算模型的构建和语言认知机理的研究带来新的机遇和启发呢?本文首先简要回顾了认知科学和计算机科学在语言理解方向上的研究问题、发展历程和研究方法,重点阐述研究现状和面临的挑战,之后对比认知科学和计算机科学领域对于语言理解问题的主要观点,分析两者之间的异同.最后对现有语言认知和语言计算两个领域的交叉融合方法进行归纳和总结,并对未来发展趋势予以展望. 展开更多
关键词 语言认知 语言计算 人的语言理解 机器的语言理解 交叉研究
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部