使用正则表达式进行流模式匹配

3

我想要解析一个格式为Warc版本0.9的大型文本文件。这样的文本示例可以在这里找到。如果您查看该文本,您会发现整个文档由以下条目列表组成。

[Warc Headers]

[HTTP Headers]

[HTML Content]

我需要从每个条目中提取URL和HTML内容(请注意,示例文件由多个页面条目组成,每个条目的格式与上面的内容相同)。

我在Java中使用了以下正则表达式:

Pattern.compile("warc/0\\.9\\s\\d+\\sresponse\\s(\\S+)\\s.*\n\n.*\n\n(.*)\n\n", Pattern.DOTALL)

代码中的组1和组2分别代表URL和HTML内容。这段代码存在两个问题:

  1. 查找匹配非常慢。
  2. 只能匹配第一页。

Java 代码:

if(mStreamScanner.findWithinHorizon(PAGE_ENTRY, 0) == null){
    return null;
} else {
    MatchResult result = mStreamScanner.match();
    return new WarcPageEntry(result.group(1), result.group(2));
}

问题:

  • 为什么我的代码只解析第一页的内容?
  • 有没有更快的方法以流式方式解析大量文本?

1
.* 改为 .*? 可以提高性能,因为它会导致更少的回溯,并且甚至可能更适合您的使用。 - Andreas
@Andreas 谢谢,现在速度更快了,但只提取了前两个条目。 - frogatto
你考虑过使用HTML解析器吗? - anubhava
@anubhava 是的,我正在使用Jsoup。 - frogatto
1个回答

0

我不会用正则表达式来处理这些庞大的HTML字符串。相反,我们可以依靠文档的结构来处理。

例如:

HashMap<String, String> output = new HashMap<>();
Pattern pattern = Pattern.compile("^warc\\/0\\.9\\s\\d+\\sresponse\\s(\\S+)\\s.*");

try (InputStreamReader is = new InputStreamReader(new FileInputStream("excerpt.txt"), "UTF-8")) {               
    try (BufferedReader br = new BufferedReader(is)) {      
        String line;        
        while ((line = br.readLine()) != null) {
            Matcher matcher = pattern.matcher(line);

            if (matcher.matches()) {
                entityLoop: while (true) {
                    String url = matcher.group(1);

                    // skip header
                    int countEmptyLines = 0;
                    while ((line = br.readLine()) != null) {
                        if ("".equals(line)) {
                            countEmptyLines++;
                            if (countEmptyLines == 2) break;
                        }
                    }

                    // extract HTML
                    StringBuilder sb = new StringBuilder();
                    while ((line = br.readLine()) != null) {
                        matcher = pattern.matcher(line);
                        if (matcher.matches()) { 
                            // got all HTML; store our findings
                            output.put(url, sb.toString());
                            continue entityLoop; 
                        }
                        sb.append(line);
                    }
                    break; // no more url/html-entities available
                }
            }
        }
    }       
} catch (IOException e) {
    // do something smart
}

// now all your extracted data is stored in "output"

以上代码仍有改进的空间。但它应该能够给你一个开始的想法。


网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接