期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
高职院校传媒类专业线上线下混合式教学模式改革研究
1
作者 许一格 《信息系统工程》 2024年第8期170-173,共4页
在互联网迅速发展的形势下,对高职院校学生的教育应该改变传统的教育模式,依托网络教育资源促进和深化线上线下混合式教学。以传媒类专业的“视频编辑与制作”课程为例,利用线上线下混合的教学模式,通过网络教育与传统教育相结合,在课... 在互联网迅速发展的形势下,对高职院校学生的教育应该改变传统的教育模式,依托网络教育资源促进和深化线上线下混合式教学。以传媒类专业的“视频编辑与制作”课程为例,利用线上线下混合的教学模式,通过网络教育与传统教育相结合,在课前、课中、课后三个阶段以案例观赏和学生实操培养学生技能为核心,带领学生掌握多类视频的制作和剪辑流程,改变传统课堂教学效率,增强学生的自我学习意识,完成教学任务,全面提高高职院校的传媒类专业教学水平,为社会发展输送高水平的人才。 展开更多
关键词 高职院校 混合式教学 传媒类专业 视频剪辑与制作
下载PDF
跨境电子商务专业在高等职业院校人才培养的分析——以连云港职业技术学院为例 被引量:3
2
作者 孙浩 许一格 《连云港职业技术学院学报》 2018年第3期78-81,共4页
我国"一带一路"倡议的实施,为全球经济发展带来活力,也为跨境电子商务的发展提供了指导思想。同时,跨境电子商务已成为"一带一路"倡议的强大助推器,这也就对跨境电子商务的专业建设、人才培养等方面提出了更高的要... 我国"一带一路"倡议的实施,为全球经济发展带来活力,也为跨境电子商务的发展提供了指导思想。同时,跨境电子商务已成为"一带一路"倡议的强大助推器,这也就对跨境电子商务的专业建设、人才培养等方面提出了更高的要求。以连云港职业技术学院为例,首先要创新跨境电商人才培养体制,其次进一步整合专业优势,提升专业群的引领作用,最后广泛拓展社会服务功能,实现深度融合的校企合作,为社会培养更多优秀的电子商务专业人才。 展开更多
关键词 跨境电子商务 网络销售 人才培养 高等职业教育
下载PDF
Improving BERT Fine-Tuning via Self-Ensemble and Self-Distillation
3
作者 许一格 邱锡鹏 +1 位作者 周浬皋 黄萱菁 《Journal of Computer Science & Technology》 SCIE EI CSCD 2023年第4期853-866,共14页
Fine-tuning pre-trained language models like BERT have become an effective way in natural language processing(NLP)and yield state-of-the-art results on many downstream tasks.Recent studies on adapting BERT to new task... Fine-tuning pre-trained language models like BERT have become an effective way in natural language processing(NLP)and yield state-of-the-art results on many downstream tasks.Recent studies on adapting BERT to new tasks mainly focus on modifying the model structure,re-designing the pre-training tasks,and leveraging external data and knowledge.The fine-tuning strategy itself has yet to be fully explored.In this paper,we improve the fine-tuning of BERT with two effective mechanisms:self-ensemble and self-distillation.The self-ensemble mechanism utilizes the checkpoints from an experience pool to integrate the teacher model.In order to transfer knowledge from the teacher model to the student model efficiently,we further use knowledge distillation,which is called self-distillation because the distillation comes from the model itself through the time dimension.Experiments on the GLUE benchmark and the Text Classification benchmark show that our proposed approach can significantly improve the adaption of BERT without any external data or knowledge.We conduct exhaustive experiments to investigate the efficiency of the self-ensemble and self-distillation mechanisms,and our proposed approach achieves a new state-of-the-art result on the SNLI dataset. 展开更多
关键词 BERT deep learning fine-tuning natural language processing(NLP) pre-training model
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部