网页
图片
视频
学术
词典
地图
更多
航班
笔记本
Web爬虫
例句
释义:
全部
全部
类别:
全部
全部
,
口语
口语
,
书面语
书面语
,
标题
标题
,
技术
技术
来源:
全部
全部
,
字典
字典
,
网络
网络
难度:
全部
全部
,
简单
简单
,
中等
中等
,
难
难
更多例句筛选
收起例句筛选
1.
A
software
robot
,
called
a
spider
or
crawler
,
automatically
fetches
sites
all
over the
Web
,
reading
pages
and
following
associated
links
.
一个
叫做
蜘蛛
或
爬虫
的
软件
机器人
自动地
在
整个
Web
上
取出
站点
,
阅读
页面
和
跟随
相关
的
链接
。
www.24en.com
2.
The
final
step
is
to
allow
this
XML
document
to
be
made
accessible
to crawlers
through
a
Web
server
.
最后
一
步
需要
使
爬虫
程序
能
通过
Web
服务器
访问
这个
XML
文档
。
www.ibm.com
3.
This
paper
studies
the
subject
of gathering
information
relevant
to the subject
,
to
significantly
reduce
the
amount
of
web pages
dealing
.
本文
研究
的
主题
爬虫
致力于
收集
主题
相关
信息
,
达到
极大
降低
网页
处理
量
的
目的
。
www.ceps.com.tw
4.
Beacons
,
also
known
as
"
Web
bugs
"
and
"
pixels
,
"
are
small
pieces
of
software
that
run
on
a
Web page
.
beacon
也
称为
“
网络
爬虫
(
Web
bug
)
”
和
“
像素
”
,
是
可以
在
网页
上
运行
的
小
段
软件
。
select.yeeyan.org
5.
An
archiving
crawler
simply
crawls a
Web
site
pulling
content
locally
to
be
stored
on
a
long-term
storage
medium
.
归档
爬虫
会
简单
地
对
Web
站点
进行
遍历
,
将
其
网站
的
本地
内容
存储
到
一个
长期
的
存储
介质
上
。
www.ibm.com
6.
On
this
basis
, the author
proposed
the
implementation
of
this
paper
-
content
detection
based on
the
web
crawler
technology
.
在此
基础
上
提出
本文
所
选用
的
实现
方案
——
基于
网络
爬虫
技术
的
内容
探测
技术
。
www.fabiao.net
7.
Each
search engine
has
its
own
automated
program
called
a
"
web
spider
"
or
"
web
crawler
"
that
crawls
the
web
.
每个
搜索引擎
都
有
自己
爬行
网页
的
自动化
程序
,
叫做
“
网络
蜘蛛
(
web
spider
)
”
或
“
网络
爬虫
(
webcrawler
)
”
。
article.yeeyan.org
8.
First
,
all
frequent
phrases
that Spock extracts
using
its
semantic
technology
via
its
web
crawler
become
tags
.
首先
,
Spock
使用
语义学
技术
、
通过
网络
爬虫
系统
采集
到
的
所有
常用
短语
都
会
成为
标签
。
www.ftchinese.com
9.
This
information
helps
the
Web
crawler
determine
what the set of pages is and when
to
crawl
them
.
这
一
信息
能
帮助
web
爬虫
程序
决定
要
爬行
哪些
页面
以及
爬行
的
时间
。
www.ibm.com
10.
Web
servers
can
exclude crawlers
using
a
file
called
robot
.
txt that tells the
crawler
what
can
and can't be crawled
.
Web
服务器
可以
使用
一个
名
为
robot.txt
的
文件
来
执行
爬虫
,
它
会
告诉
爬虫
不能
搜索
的
内容
。
www.ibm.com
1
2
3