4.3. 从HTML文档中提取数据

为了从HTML文档中提取数据,将 SGMLParser 类进行子类化,然后对想要捕捉的标记或实体定义方法。

从HTML文档中提取数据的第一步是得到某个HTML文件。如果在你的硬盘里存放着HTML文件,你可以使用 file函数 将它读出来,但是真正有意思的是从实际的网页得到HTML。

例 4.5. urllib 介绍

>>> import urllib                                       1
>>> sock = urllib.urlopen("http://diveintopython.org/") 2
>>> htmlSource = sock.read()                            3
>>> sock.close()                                        4
>>> print htmlSource                                    5
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"><html><head>
      <meta http-equiv='Content-Type' content='text/html; charset=ISO-8859-1'>
   <title>Dive Into Python</title>
<link rel='stylesheet' href='diveintopython.css' type='text/css'>
<link rev='made' href='mailto:f8dy@diveintopython.org'>
<meta name='keywords' content='Python, Dive Into Python, tutorial, object-oriented, programming, documentation, book, free'>
<meta name='description' content='a free Python tutorial for experienced programmers'>
</head>
<body bgcolor='white' text='black' link='#0000FF' vlink='#840084' alink='#0000FF'>
<table cellpadding='0' cellspacing='0' border='0' width='100%'>
<tr><td class='header' width='1%' valign='top'>diveintopython.org</td>
<td width='99%' align='right'><hr size='1' noshade></td></tr>
<tr><td class='tagline' colspan='2'>Python&nbsp;for&nbsp;experienced&nbsp;programmers</td></tr>

[...略...]
1

urllib 模块是标准Python库的一部分。它包含了一些函数,可以从基于互联网的URL(主要指网页)来获取信息并且真正取回数据。

2

urllib 模块最简单的使用是提取用 urlopen 函数取回的网页的整个文本。打开一个URL同 打开一个文件相似。urlopen 的返回值是象文件一样的对象,它具有一个文件对象一样的方法。

3

使用由 urlopen 所返回的类文件对象所能做的最简单的事情就是 read,它可以将网页的整个HTML读到一个字符串中。这个对象也支持 readlines 方法,这个方法可以将文本按行放入一个列表中。

4

当用完这个对象,要确保将它关闭,就象关闭一个普通的文件对象。

5

现在我们让 http://diveintopython.org/ 主页的完整的HTML保存在一个字符串中了,接着我们将分析它。

例 4.6. urllister.py 介绍

如果你还没有运行过,可以下载本例或本书用到的其它的例子


from sgmllib import SGMLParser

class URLLister(SGMLParser):
    def reset(self):                              1
        SGMLParser.reset(self)
        self.urls = []

    def start_a(self, attrs):                     2
        href = [v for k, v in attrs if k=='href'] 3 4
        if href:
            self.urls.extend(href)
1

resetSGMLParser__init__ 方法来调用,也可以在创建一个分析器实例时手工来调用。所以如果你需要做初始化,在 reset 中去做,而不要在 __init__ 中做。这样当某人重用一个分析器实例时,会正确地重新初始化。

2

只要找到一个 <a> 标记,start_a 就会由 SGMLParser 进行调用。这个标记可以包含一个 href 属性,或者包含其它的属性,如 nametitleattrs 参数是一个元组列表,元组为 [(attribute, value), (attribute, value), ...]。或者它可以只是一个有效的HTML标记(尽管无用)<a>,这时 attrs 将是空列表。

3

我们可以通过一个简单的多变量列表理解来查找是否这个 <a> 标记拥有一个 href 属性。

4

k=='href' 的字符串比较是区分大小写的,但是这里是安全的。因为 SGMLParser 会在创建 attrs 时将属性名转化为小写。

例 4.7. 使用 urllister.py

>>> import urllib, urllister
>>> usock = urllib.urlopen("http://diveintopython.org/")
>>> parser = urllister.URLLister()
>>> parser.feed(usock.read())         1
>>> usock.close()                     2
>>> parser.close()                    3
>>> for url in parser.urls: print url 4
toc.html
#download
toc.html
history.html
download/dip_pdf.zip
download/dip_pdf.tgz
download/dip_pdf.hqx
download/diveintopython.pdf
download/diveintopython.zip
download/diveintopython.tgz
download/diveintopython.hqx

[...略...]
1

调用定义在 SGMLParser 中的 feed 方法,将HTML内容放入分析器中。[7]这个方法接收一个字符串,这个字符串就是 usock.read() 所返回的。

2

象处理文件一样,一旦处理完毕,你应该 close 你的URL对象。

3

你也应该 close 你的分析器对象,但出于不同的原因。feed 方法不保证对传给它的全部HTML进行处理,它可能会对其进行缓冲处理,等待接收更多的内容。一旦没有更多的内容,应调用 close 来刷新缓冲区,并且强制所有内容被完全处理。

4

一旦分析器关闭,分析过程也就结束了。parser.urls 中包含了在HTML文档中所有的链接URL。


脚注

[7] SGMLParser 这样的分析器,技术术语叫做消费者(consumer)。它消费HTML,并且拆分它。也许因为这就选择了 feed 这个名字,以便同“消费者”这个主题相适应。就个人来说,它让我想象在动物园看展览。里面有一个黑漆漆的兽穴,没有树,没有植物,没有任何生命的迹象。但只要你非常安静地站着,尽可能靠近着瞧,你会看到在远处的角落里有两只明眸在盯着你。但是你会安慰自已那不过是心理作用。唯一知道兽穴里并不是空无一物的方法,就是在栅栏上有一个不明显的标记,上面写着“禁止给分析器喂食”。但也许只有我这么想,不管怎么样,这种心理想象很有意思。