期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
从习性、资讯、能力解析决策案例——何以韩信能而马谡不能
1
作者
黎汉林
《管理信息系统》
1996年第5期48-51,共4页
影响决策主要因素为习性、资讯与能力(简称习讯能)。本文首先说明决策的习讯能理论,再由之发展出决策推理的八项步骤。此推理八步可系统的解析过去决策案例中的决策盲点或关键点。本文并将以韩信背水之战与马谡街亭之战为例,说明此推理...
影响决策主要因素为习性、资讯与能力(简称习讯能)。本文首先说明决策的习讯能理论,再由之发展出决策推理的八项步骤。此推理八步可系统的解析过去决策案例中的决策盲点或关键点。本文并将以韩信背水之战与马谡街亭之战为例,说明此推理八步的运用。
展开更多
关键词
决策
习讯能理论
DSS
下载PDF
职称材料
论搜寻引擎以程式在网路上自动抓取资料时可能面临之法律问题及其解决之道
被引量:
2
2
作者
廖先志
陈钟诚
《图书馆工作与研究》
CSSCI
北大核心
2007年第4期9-18,共10页
搜寻引擎必须以crawler程式(又称spider程式)来自动抓取网页并建立索引,如果crawler程式仅仅循着网页所提供的超连结来搜寻网页并抓取內容,称为一般性的crawler程式;如果不论网页是否提供超连结,crawler程式会自行计算并找到网页的所有...
搜寻引擎必须以crawler程式(又称spider程式)来自动抓取网页并建立索引,如果crawler程式仅仅循着网页所提供的超连结来搜寻网页并抓取內容,称为一般性的crawler程式;如果不论网页是否提供超连结,crawler程式会自行计算并找到网页的所有內容并加以抓取,此种crawler则称为深度crawler。而crawler抓取网页內容的步骤可以细分为「取得资料」及「储存并建立索引」二大步骤。在「取得资料」阶段中,深度crawler虽然是自行透过演算法来取得网页的所有內容,但本文认为仍不至于构成非法存取(unauthorizedaccess)。此外,不论是一般的crawler或是深度crawl-er,如果取得网页內容时会耗费网站资源而干扰网站的正砊俗?就可能构成如美国eBay案中讨论的财产侵害(trespasstochattel)。在「储存并建立索引」阶段中,原则上应该不会侵害网页拥有者之重制权。然而,有些搜寻引擎(例如Google)将其取得的內容以「库存页面」(cache)的方式允许使用者存取,此时即有争议发生。但本文以为,由于搜寻引擎的主要目的是在使网路使用者更容易接触网页,所以此种「重制」与「散布」行为原则上应有著作权法「合理使用」原则的适用,故不会构成侵害著作权,但仍应考虑搜寻引擎与原网站之间是否处于竞<关系,以及所抓取之资料量占原网站之比例等因素综合判断。要解决搜寻引擎与网站间可能发生的法律<议,除可以强化现行的robotexclusion标准外,网站也可以考虑增强自动过滤crawler的功能,以杜绝<议。
展开更多
关键词
搜寻引擎
侵权行为
著作权法
下载PDF
职称材料
题名
从习性、资讯、能力解析决策案例——何以韩信能而马谡不能
1
作者
黎汉林
机构
台湾交通大学资讯管理研究所
出处
《管理信息系统》
1996年第5期48-51,共4页
文摘
影响决策主要因素为习性、资讯与能力(简称习讯能)。本文首先说明决策的习讯能理论,再由之发展出决策推理的八项步骤。此推理八步可系统的解析过去决策案例中的决策盲点或关键点。本文并将以韩信背水之战与马谡街亭之战为例,说明此推理八步的运用。
关键词
决策
习讯能理论
DSS
分类号
TP399 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
论搜寻引擎以程式在网路上自动抓取资料时可能面临之法律问题及其解决之道
被引量:
2
2
作者
廖先志
陈钟诚
机构
[
台湾
]
交通大学
资讯
管理
研究所
金门技术学院
资讯
管理
系
出处
《图书馆工作与研究》
CSSCI
北大核心
2007年第4期9-18,共10页
文摘
搜寻引擎必须以crawler程式(又称spider程式)来自动抓取网页并建立索引,如果crawler程式仅仅循着网页所提供的超连结来搜寻网页并抓取內容,称为一般性的crawler程式;如果不论网页是否提供超连结,crawler程式会自行计算并找到网页的所有內容并加以抓取,此种crawler则称为深度crawler。而crawler抓取网页內容的步骤可以细分为「取得资料」及「储存并建立索引」二大步骤。在「取得资料」阶段中,深度crawler虽然是自行透过演算法来取得网页的所有內容,但本文认为仍不至于构成非法存取(unauthorizedaccess)。此外,不论是一般的crawler或是深度crawl-er,如果取得网页內容时会耗费网站资源而干扰网站的正砊俗?就可能构成如美国eBay案中讨论的财产侵害(trespasstochattel)。在「储存并建立索引」阶段中,原则上应该不会侵害网页拥有者之重制权。然而,有些搜寻引擎(例如Google)将其取得的內容以「库存页面」(cache)的方式允许使用者存取,此时即有争议发生。但本文以为,由于搜寻引擎的主要目的是在使网路使用者更容易接触网页,所以此种「重制」与「散布」行为原则上应有著作权法「合理使用」原则的适用,故不会构成侵害著作权,但仍应考虑搜寻引擎与原网站之间是否处于竞<关系,以及所抓取之资料量占原网站之比例等因素综合判断。要解决搜寻引擎与网站间可能发生的法律<议,除可以强化现行的robotexclusion标准外,网站也可以考虑增强自动过滤crawler的功能,以杜绝<议。
关键词
搜寻引擎
侵权行为
著作权法
分类号
D923.4 [政治法律—民商法学]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
从习性、资讯、能力解析决策案例——何以韩信能而马谡不能
黎汉林
《管理信息系统》
1996
0
下载PDF
职称材料
2
论搜寻引擎以程式在网路上自动抓取资料时可能面临之法律问题及其解决之道
廖先志
陈钟诚
《图书馆工作与研究》
CSSCI
北大核心
2007
2
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部