期刊文献+
共找到17篇文章
< 1 >
每页显示 20 50 100
精细化护理联合注意力和工作记忆康复训练对脑梗死认知功能障碍患者神经与认知功能的影响 被引量:1
1
作者 高莎莎 《反射疗法与康复医学》 2024年第3期117-120,共4页
目的探讨精细化护理联合注意力和工作记忆康复训练在脑梗死认知功能障碍患者中的应用效果.方法选择2020年5月—2023年3月我院收治的82例脑梗死认知功能障碍患者为研究对象,按随机数字表法分为对照组和观察组,每组41例.对照组实施常规护... 目的探讨精细化护理联合注意力和工作记忆康复训练在脑梗死认知功能障碍患者中的应用效果.方法选择2020年5月—2023年3月我院收治的82例脑梗死认知功能障碍患者为研究对象,按随机数字表法分为对照组和观察组,每组41例.对照组实施常规护理,观察组实施精细化护理联合注意力和工作记忆康复训练,两组均持续护理4周.对比两组的神经功能、认知功能、日常生活能力与护理满意度.结果护理后,观察组美国国立卫生研究院卒中量表评分、蒙特利尔认知功能量表评分均低于对照组,日常生活能力指数量表评分高于对照组,组间差异有统计学意义(P<0.05).观察组护理满意度为95.12%,高于对照组的80.49%,差异有统计学意义(P<0.05).结论精细化护理联合注意力和工作记忆康复训练在脑梗死认知障碍患者中具有较好的应用效果,有利于改善其神经功能与认知功能,减轻认知障碍,提升日常生活能力与护理满意度. 展开更多
关键词 脑梗死 认知功能障碍 精细化护理 注意力和工作记忆康复训练 神经功能 认知功能
下载PDF
基于注意力卷积长短时记忆模型的城市出租车流量预测
2
作者 周新民 金江涛 +2 位作者 鲍娜娜 袁涛 崔烨 《中国安全科学学报》 CAS CSCD 北大核心 2024年第7期153-162,共10页
为解决城市交通拥堵和安全问题,提出一种注意力卷积长短时记忆(ConvLSTM)残差(ACLR)模型,该模型通过结合ConvLSTM、注意力机制和残差结构,分别处理出租车流量的时间、空间、和其他特征,挖掘区域兴趣点(POI)数据对出租车流量的影响,有效... 为解决城市交通拥堵和安全问题,提出一种注意力卷积长短时记忆(ConvLSTM)残差(ACLR)模型,该模型通过结合ConvLSTM、注意力机制和残差结构,分别处理出租车流量的时间、空间、和其他特征,挖掘区域兴趣点(POI)数据对出租车流量的影响,有效提升交通时空特征的提取能力。同时,引入专门的学习元件考虑外部因素和POI密度对交通流量的影响,并利用北京市出租车轨迹数据验证。结果表明:ACLR模型在城市交通流预测中的精度高于差分自回归滑动平均(ARIMA)模型、长短时记忆(LSTM)网络、深度时空残差网络(ST-ResNet)、卷积神经网络(CNN)-残差神经单元-LSTM(CRL)循环神经网络、ACFM等模型,在无POI密度和考虑POI密度的情况下,均有助于提升模型的预测性能,ACLA模型的预测值与真实值基本一致,高峰时段也能与真实值较好地吻合,有效提升交通时空特征的提取能力,降低预测误差,使得交通流量预测性能得到优化。 展开更多
关键词 注意力卷积长短时记忆残差网络(ACLR)模型 交通流量预测 城市出租车 时空特征 残差结构
下载PDF
基于自注意力机制的深度学习的海洋三维温度场预测
3
作者 岳伟豪 徐永生 朱善良 《海洋预报》 CSCD 北大核心 2024年第3期22-32,共11页
目前主要从时空角度出发对海洋三维温度场进行预测,却忽略了相邻位置的海温相关关系。为弥补这一不足,构建一种融合了自注意力记忆模块与卷积式长短时记忆神经网络(ConvLSTM)模型的SA-ConvLSTM三维温度场预测模型,不仅可以从历史三维温... 目前主要从时空角度出发对海洋三维温度场进行预测,却忽略了相邻位置的海温相关关系。为弥补这一不足,构建一种融合了自注意力记忆模块与卷积式长短时记忆神经网络(ConvLSTM)模型的SA-ConvLSTM三维温度场预测模型,不仅可以从历史三维温度场中提取海温时空特征,还能获取并记忆相邻点位置信息,从而实现对三维温度场时空变化的把握。实验结果表明:相较于ConvLSTM模型,SA-ConvLSTM模型在滑动预测与多步长递归预测实验下的均方根误差和平均绝对误差提升约14%,且整体预测效果均优于基线模型、长短时记忆神经网络模型和ConvLSTM模型。 展开更多
关键词 海水温度 三维温度场预测 注意力记忆机制 SA-ConvLSTM 多步长递归预测
下载PDF
用于关系抽取的注意力图长短时记忆神经网络 被引量:8
4
作者 张勇 高大林 +1 位作者 巩敦卫 陶一凡 《智能系统学报》 CSCD 北大核心 2021年第3期518-527,共10页
关系抽取是信息获取中一项关键技术。句子结构树能够捕获单词之间的长距离依赖关系,已被广泛用于关系抽取任务中。但是,现有方法存在过度依赖句子结构树本身信息而忽略外部信息的不足。本文提出一种新型的图神经网络模型,即注意力图长... 关系抽取是信息获取中一项关键技术。句子结构树能够捕获单词之间的长距离依赖关系,已被广泛用于关系抽取任务中。但是,现有方法存在过度依赖句子结构树本身信息而忽略外部信息的不足。本文提出一种新型的图神经网络模型,即注意力图长短时记忆神经网络(attention graph long short term memory neural network,AGLSTM)。该模型采用一种软修剪策略自动学习对关系抽取有用的句子结构信息;通过引入注意力机制,结合句法图信息学习句子的结构特征;并设计一种新型的图长短时记忆神经网络,使得模型能够更好地融合句法图信息和句子的时序信息。与10种典型的关系抽取方法进行对比,实验验证了该模型的优异性能。 展开更多
关键词 关系抽取 句子结构树 句法图 图神经网络 注意力图长短时记忆神经网络 软修剪策略 注意力机制 长短时记忆神经网络
下载PDF
融合单语翻译记忆的神经机器翻译方法
5
作者 王兵 叶娜 蔡东风 《沈阳航空航天大学学报》 2023年第2期74-82,共9页
与以往使用双语语料库作为翻译记忆(Translation Memory,TM)并采用源端相似度搜索进行记忆检索,进而将检索到的相似句对与神经机器翻译(Neural Machine Translation,NMT)模型融合的这种分阶段进行的方法不同,提出一种新的融合框架,即基... 与以往使用双语语料库作为翻译记忆(Translation Memory,TM)并采用源端相似度搜索进行记忆检索,进而将检索到的相似句对与神经机器翻译(Neural Machine Translation,NMT)模型融合的这种分阶段进行的方法不同,提出一种新的融合框架,即基于跨语言注意力记忆网络的神经机器翻译模型,该模型使用单语翻译记忆即目标语言句子作为TM,并以跨语言的方式执行可学习的检索。该框架具有一定的优势:第一,跨语言注意力记忆网络允许单语句子作为TM,适合于双语语料缺乏的低资源场景;第二,跨语言注意力记忆网络和NMT模型可以为最终的翻译目标进行联合优化,实现一体化训练。实验表明,所提出的方法在4个翻译任务上取得了较好的效果,在双语资源稀缺的专业领域中也表现出其在低资源场景下的有效性。 展开更多
关键词 神经机器翻译 单语翻译记忆 跨语言注意力记忆网络 低资源领域 Transformer模型
下载PDF
基于改进Transformer的多尺度图像描述生成
6
作者 崔衡 张海涛 +1 位作者 杨剑 杜宝昌 《软件导刊》 2024年第7期160-166,共7页
Transformer模型被广泛应用于图像描述生成任务中,但存在以下问题:(1)依赖复杂神经网络对图像进行预处理;(2)自注意力具有二次计算复杂度;(3)Masked Self-Attention缺少图像引导信息。为此,提出改进Transformer的多尺度图像描述生成模... Transformer模型被广泛应用于图像描述生成任务中,但存在以下问题:(1)依赖复杂神经网络对图像进行预处理;(2)自注意力具有二次计算复杂度;(3)Masked Self-Attention缺少图像引导信息。为此,提出改进Transformer的多尺度图像描述生成模型。首先,将图像划分为多尺度图像块以获取多层次图像特征,并将其通过线性映射作为Transformer的输入,避免了复杂神经网络预处理的步骤,从而提升了模型训练与推理速度;其次,在编码器中使用线性复杂度的记忆注意力,通过可学习的共享记忆单元学习整个数据集的先验知识,挖掘样本间潜在的相关性;最后,在解码器中引入视觉引导注意力,将视觉特征作为辅助信息指导解码器生成与图像内容更为匹配的语义描述。在COCO2014数据集上的测试结果表明,与基础模型相比,改进模型在CIDEr、METEOR、ROUGE和SPICE指标分数方面分别提高了2.6、0.7、0.4、0.7。基于改进Transformer的多尺度图像描述生成模型能生成更加准确的语言描述。 展开更多
关键词 图像描述 Transformer模型 记忆注意力 多尺度图像 注意力
下载PDF
基于ALSTM-MHA的航空发动机寿命预测
7
作者 修瑞 丁建完 +1 位作者 刘笑炎 高创 《机床与液压》 北大核心 2024年第12期187-192,共6页
为了提升剩余寿命预测任务的精度,提出一种基于注意力长短时记忆网络和多头自注意力机制(ALSTM-MHA)的剩余寿命预测模型,在利用数据时序性的条件下提取特征维度的重要程度以及时间维度的相关性信息。使用C-MAPSS数据集对模型进行实验验... 为了提升剩余寿命预测任务的精度,提出一种基于注意力长短时记忆网络和多头自注意力机制(ALSTM-MHA)的剩余寿命预测模型,在利用数据时序性的条件下提取特征维度的重要程度以及时间维度的相关性信息。使用C-MAPSS数据集对模型进行实验验证,并与其他方法进行对比。结果表明:ALSTM-MHA模型能够有效地提取特征及时间维度上的注意力信息,与其他方法相比,它在均方根误差和非对称评价指标上分别降低了至少0.3%和20.48%,验证了模型的可行性和有效性。 展开更多
关键词 航空发动机 注意力长短时记忆网络 多头自注意力机制 剩余寿命预测
下载PDF
确定性网络5G-A终端时延预测
8
作者 刘壮 盛志超 +2 位作者 魏浩 余鸿文 方勇 《无线电工程》 2024年第4期1034-1042,共9页
工业控制场景下5G-A终端传输时延是确定性网络能力的直接表征之一,时延预测对提高网络确定性至关重要。由于传输时延序列的不稳定性和随机性,单一模型难以准确预测。针对该问题,提出一种基于优化变分模态分解(Variational Mode Decompos... 工业控制场景下5G-A终端传输时延是确定性网络能力的直接表征之一,时延预测对提高网络确定性至关重要。由于传输时延序列的不稳定性和随机性,单一模型难以准确预测。针对该问题,提出一种基于优化变分模态分解(Variational Mode Decomposition, VMD)和卷积注意力长短时记忆网络(Convolutional Attention Long Short Term Memory Network, CA-LSTM)的传输时延预测方法。为提高VMD的分解性能,利用相关系数检验法确定时延序列分解的模态数,并利用蝗虫优化寻优分解的惩罚因子和保真度系数;设计CA-LSTM网络,借助卷积滤波器以及注意力机制使得网络具备分辨时延特征重要程度的能力;将各模态预测值重建成一维时延值得到预测结果。实验研究结果表明,优化VDM能够将5G终端传输时延序列有效分解,结合CA-LSTM模型相比于经典LSTM在MSE、RMSE和MAE上分别提升了37.1%、21.3%和23.6%。 展开更多
关键词 5G时延 变分模态分解 相关系数 蝗虫优化算法 卷积注意力长短时记忆网络
下载PDF
基于TCNN-MADLSTM的全并联AT牵引网多元信号融合故障定位
9
作者 周欢 陈剑云 +2 位作者 万若安 傅钦翠 李泽文 《中国铁道科学》 EI CAS CSCD 北大核心 2023年第4期206-218,共13页
全并联AT牵引供电系统上下行线路并入自耦变压器,致使故障信号多路径传播,且牵引网导线阻抗不连续,传统方法很难实现牵引网故障准确定位。基于AT牵引网结构,推导牵引网上下行导线故障电流幅值与故障距离的非线性关系;基于改进的卷积神... 全并联AT牵引供电系统上下行线路并入自耦变压器,致使故障信号多路径传播,且牵引网导线阻抗不连续,传统方法很难实现牵引网故障准确定位。基于AT牵引网结构,推导牵引网上下行导线故障电流幅值与故障距离的非线性关系;基于改进的卷积神经网络(Transformer-based CNN,TCNN)和记忆注意力解耦长短期记忆神经网络(Memory Attended Decoupled LSTM,MADLSTM),通过增加注意力机制和残差连接,增强多导线电流幅值与故障距离的非线性函数关系,从而提高牵引网故障定位的精度;将前述方法与传统的卷积神经网络(CNN)和长短期记忆神经网络(LSTM)进行不同噪声条件下的对比验证。结果表明:基于TCNN+MADLSTM算法进行故障定位时,可自适应构建故障距离与多导线电流幅值的非线性函数关系,以及自适应计算故障距离,无须考虑波速影响;相较于传统的CNN+LSTM算法,TCNN+MADLSTM算法故障定位精度更高,故障区段识别精度可达100%,故障定位精度达72.100 m,均方误差为0.016 km^(2)。 展开更多
关键词 全并联AT牵引供电系统 故障定位 改进的卷积神经网络 记忆注意力解耦长短期记忆神经网络
下载PDF
基于知识图谱的推荐算法研究
10
作者 薛艳斌 王宏生 《长江信息通信》 2023年第6期96-98,共3页
将知识图谱作为外部信息引入推荐系统可以有效缓解推荐系统的数据稀疏问题。文章提出一种端到端的神经网络模型,文章使用一种图注意力机制取代基于相似度或交换矩阵计算的离线元路径方法;另外,根据知识图谱中的项目的不同实体类型,文章... 将知识图谱作为外部信息引入推荐系统可以有效缓解推荐系统的数据稀疏问题。文章提出一种端到端的神经网络模型,文章使用一种图注意力机制取代基于相似度或交换矩阵计算的离线元路径方法;另外,根据知识图谱中的项目的不同实体类型,文章提出一种多视图记忆注意力网络去学习更深层次的项目表征。文章在MovieLens数据集上进行了实验,实验结果表明,本文的模型明显优于Top-N推荐基线模型。 展开更多
关键词 推荐系统 知识图谱 注意力机制 记忆注意力网络
下载PDF
基于3D多尺度卷积的非接触心率估计模型
11
作者 潘天宝 程宁 刘金江 《传感器与微系统》 CSCD 北大核心 2023年第7期43-47,共5页
为了在真实环境下实现更准确的非接触式心率(HR)估计,提出一种远程光电容积描记术(rPPG)和HR信号恢复任务的端到端时空卷积神经网络(CNN)模型。模型使用3D多尺度卷积注意力获取多尺度特征并融合上下文信息。其次引入自注意力卷积长短期... 为了在真实环境下实现更准确的非接触式心率(HR)估计,提出一种远程光电容积描记术(rPPG)和HR信号恢复任务的端到端时空卷积神经网络(CNN)模型。模型使用3D多尺度卷积注意力获取多尺度特征并融合上下文信息。其次引入自注意力卷积长短期记忆(SA-ConvLSTM)提取具有全局依赖和局部依赖的时间空间特征。最后,根据rPPG和HR信号的强关联性,使用多任务学习方法来提高模型性能。在公开的UBFC-rPPG和COHFACE数据集上进行实验测试,结果表明:提出的网络模型在非接触式HR提取中具有更好鲁棒性。 展开更多
关键词 非接触心率提取 3D多尺度卷积注意力 注意力卷积长短期记忆 多任务学习
下载PDF
前交通动脉瘤介入术中胼胝体下动脉保护与前交通动脉综合征相关性研究 被引量:5
12
作者 张清平 魏强国 +6 位作者 李宝民 秦国强 谈山峰 刘欣民 罗杰 宋伟健 胡深 《介入放射学杂志》 CSCD 北大核心 2020年第3期296-300,共5页
目的总结前交通动脉瘤血管内介入治疗的临床效果,探讨前交通动脉瘤介入术中保护胼胝体下动脉(SCA)与术后前交通动脉综合征发生的相关性。方法回顾性分析38例经介入治疗的前交通动脉瘤患者临床资料,根据术前脑血管造影SCA显影与否,分为... 目的总结前交通动脉瘤血管内介入治疗的临床效果,探讨前交通动脉瘤介入术中保护胼胝体下动脉(SCA)与术后前交通动脉综合征发生的相关性。方法回顾性分析38例经介入治疗的前交通动脉瘤患者临床资料,根据术前脑血管造影SCA显影与否,分为显影组(n=20)和不显影组(n=18)。统计分析手术前后、随访时短期定向力-记忆力-注意力测试(SOMCT)评分及术后并发症发生情况。结果两组间术前和术后3个月SOMCT评分差异均无统计学意义(P>0.05),术后即刻、术后3 d、15 d、6个月SOMCT评分差异有统计学意义(P<0.05)。重复测量设计资料方差分析显示术前SCA显影组SOMCT评分均高于术前不显影组(F=9.96,P=0.003)。SCA显影组、不显影组术后发生高热、水电解质紊乱分别为18例、8例,18例,4例,差异均有统计学意义(P<0.05)。结论术前SCA显影与术后SOMCT评分升高密切相关,患者易发生高热、水电解质紊乱等并发症。术中保护SCA有助于降低并发症发生。 展开更多
关键词 前交通动脉瘤 胼胝体下动脉 介入栓塞术 短期定向力-记忆力-注意力测试 水电解质紊乱
下载PDF
一种改进的Attention-Based LSTM特征选择模型 被引量:13
13
作者 朱星嘉 李红莲 +2 位作者 吕学强 周建设 夏红科 《北京信息科技大学学报(自然科学版)》 2018年第2期54-59,共6页
为了对高校学术活动进行信息提取和文本分类,基于结合注意力机制的长短期记忆网络(Attention-Based Long Short-Term Memory)特征选择模型,构建了高校学术活动分类系统。通过大量分析高校学术活动语料的特点,准确抽取学术活动的相关内容... 为了对高校学术活动进行信息提取和文本分类,基于结合注意力机制的长短期记忆网络(Attention-Based Long Short-Term Memory)特征选择模型,构建了高校学术活动分类系统。通过大量分析高校学术活动语料的特点,准确抽取学术活动的相关内容,改善了文本数据质量;提出了一种改进的Attention-Based LSTM特征选择模型,降低了数据维度,有效地突出了重点信息。实验结果表明,该方法提高了分类的准确率,其分类效果明显优于普通LSTM(Long Short-Term Memory)模型和传统模型的处理结果。 展开更多
关键词 高校学术活动 信息提取 文本分类 结合注意力机制的长短期记忆网络 重点信息
下载PDF
Multi-head attention-based long short-term memory model for speech emotion recognition 被引量:1
14
作者 Zhao Yan Zhao Li +3 位作者 Lu Cheng Li Sunan Tang Chuangao Lian Hailun 《Journal of Southeast University(English Edition)》 EI CAS 2022年第2期103-109,共7页
To fully make use of information from different representation subspaces,a multi-head attention-based long short-term memory(LSTM)model is proposed in this study for speech emotion recognition(SER).The proposed model ... To fully make use of information from different representation subspaces,a multi-head attention-based long short-term memory(LSTM)model is proposed in this study for speech emotion recognition(SER).The proposed model uses frame-level features and takes the temporal information of emotion speech as the input of the LSTM layer.Here,a multi-head time-dimension attention(MHTA)layer was employed to linearly project the output of the LSTM layer into different subspaces for the reduced-dimension context vectors.To provide relative vital information from other dimensions,the output of MHTA,the output of feature-dimension attention,and the last time-step output of LSTM were utilized to form multiple context vectors as the input of the fully connected layer.To improve the performance of multiple vectors,feature-dimension attention was employed for the all-time output of the first LSTM layer.The proposed model was evaluated on the eNTERFACE and GEMEP corpora,respectively.The results indicate that the proposed model outperforms LSTM by 14.6%and 10.5%for eNTERFACE and GEMEP,respectively,proving the effectiveness of the proposed model in SER tasks. 展开更多
关键词 speech emotion recognition long short-term memory(LSTM) multi-head attention mechanism frame-level features self-attention
下载PDF
A multi-attention RNN-based relation linking approach for question answering over knowledge base 被引量:1
15
作者 Li Huiying Zhao Man Yu Wenqi 《Journal of Southeast University(English Edition)》 EI CAS 2020年第4期385-392,共8页
Aiming at the relation linking task for question answering over knowledge base,especially the multi relation linking task for complex questions,a relation linking approach based on the multi-attention recurrent neural... Aiming at the relation linking task for question answering over knowledge base,especially the multi relation linking task for complex questions,a relation linking approach based on the multi-attention recurrent neural network(RNN)model is proposed,which works for both simple and complex questions.First,the vector representations of questions are learned by the bidirectional long short-term memory(Bi-LSTM)model at the word and character levels,and named entities in questions are labeled by the conditional random field(CRF)model.Candidate entities are generated based on a dictionary,the disambiguation of candidate entities is realized based on predefined rules,and named entities mentioned in questions are linked to entities in knowledge base.Next,questions are classified into simple or complex questions by the machine learning method.Starting from the identified entities,for simple questions,one-hop relations are collected in the knowledge base as candidate relations;for complex questions,two-hop relations are collected as candidates.Finally,the multi-attention Bi-LSTM model is used to encode questions and candidate relations,compare their similarity,and return the candidate relation with the highest similarity as the result of relation linking.It is worth noting that the Bi-LSTM model with one attentions is adopted for simple questions,and the Bi-LSTM model with two attentions is adopted for complex questions.The experimental results show that,based on the effective entity linking method,the Bi-LSTM model with the attention mechanism improves the relation linking effectiveness of both simple and complex questions,which outperforms the existing relation linking methods based on graph algorithm or linguistics understanding. 展开更多
关键词 question answering over knowledge base(KBQA) entity linking relation linking multi-attention bidirectional long short-term memory(Bi-LSTM) large-scale complex question answering dataset(LC-QuAD)
下载PDF
深度学习在钢结构货架变形预测中的应用研究
16
作者 魏来 张雅晨 +1 位作者 潘健 胡一清 《山西建筑》 2025年第2期28-32,43,共6页
随着工业化和物流行业的发展,钢结构货架在仓储和物流系统中越来越重要,因此准确预测其变形至关重要。文章介绍了一种基于双向长短时记忆网络(BiLSTM)和注意力机制的预测算法,该算法利用时间序列数据,通过深度学习模型进行训练,能够更... 随着工业化和物流行业的发展,钢结构货架在仓储和物流系统中越来越重要,因此准确预测其变形至关重要。文章介绍了一种基于双向长短时记忆网络(BiLSTM)和注意力机制的预测算法,该算法利用时间序列数据,通过深度学习模型进行训练,能够更细致地分析和预测钢结构货架的变形。结合一个典型应用验证了模型性能,证实了其高稳健性和出色的预测精度。实验结果表明,该模型能够准确地预测钢结构货架的变形情况,其平均误差仅为0.15%~3.33%。这些结果表明了该算法在钢结构货架自动化监测领域的潜在应用前景,为其结构变形预测提供了一种可行的解决方案。 展开更多
关键词 自动化监测 深度学习 时间序列数据 双向长短时记忆网络与注意力机制(BiLSTM-Attention)
下载PDF
枸杞果汁对机体免疫作用的人体试食研究 被引量:3
17
作者 刘赛群 马征 张莹莹 《中国卫生检验杂志》 CAS 2011年第7期1680-1681,1684,共3页
目的:评价枸杞果汁对人体免疫系统的影响。方法:选择60名志愿者作为受试对象随机分为干预组(n=30)和安慰剂组(n=30),采用双盲法给予受试物,每日2次,每次60 ml,连续30 d。试验前后分别进行常规体检、临床症状观察、视力测定、短时注意力... 目的:评价枸杞果汁对人体免疫系统的影响。方法:选择60名志愿者作为受试对象随机分为干预组(n=30)和安慰剂组(n=30),采用双盲法给予受试物,每日2次,每次60 ml,连续30 d。试验前后分别进行常规体检、临床症状观察、视力测定、短时注意力和记忆力测定、血清免疫指标测定。结果:志愿者饮用枸杞果汁和安慰剂30 d后,干预组临床症状有明显改善,与自身试验前及安慰剂组比较差别有统计学意义(P<0.05);干预组与安慰剂组主要症状改善总有效率分别为63.33%、20.00%,两者比较差别有统计学意义(P<0.05);干预组淋巴细胞转化能力、IL-2、IgG含量与试食前及安慰剂组试验后比较,均有显著提高(P<0.05);干预组CD4、CD8、NK、IL-4、IgA水平未见明显改变;干预组短时注意力和记忆力与试食前及安慰剂组比较差别无统计学意义;干预组视力水平未见明显改变。试验期间未见志愿者有明显不良反应,各项安全性指标均未见明显异常改变。结论:枸杞果汁能有效地调节人体免疫系统。 展开更多
关键词 枸杞果汁 安慰剂 双盲法 短时注意力记忆 血清免疫指标
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部