| PostgreSQL 9.3.1 中文手册 | ||||
|---|---|---|---|---|
| 上一页 | 上一级 | 章 12. 全文检索 | 下一页 | |
一个自定义文本搜索配置的行为很容易变得混乱。在本节中描述的函数对测试文本搜索对象是有用的。 你可以测试一个完整的配置,或分别测试分析器和词典。
    函数ts_debug允许简单测试文本搜索配置。
ts_debug([ config regconfig, ] document text,
         OUT alias text,
         OUT description text,
         OUT token text,
         OUT dictionaries regdictionary[],
         OUT dictionary regdictionary,
         OUT lexemes text[])
         returns setof record    ts_debug显示关于通过解析器产生的和通过配置词典处理的document的每个标记的信息。
如果忽略参数,它使用通过config或者default_text_search_config指定的配置。
   
   
    ts_debug返回通过文本解析器标识的每个标记的每一行,返回的列是:
    
alias text —标记类型的别名
description text —标记类型描述
token text —标记文本
dictionaries regdictionary[] —通过配置为这个标记类型选定的词典
dictionary regdictionary —词典公认的标记,如果不这样,则为空。
lexemes text[] — 公认标记的词典产生的词(s),或者如果不做则为NULL;空数组({})意味着它是公认的屏蔽词。
一个简单例子:
SELECT * FROM ts_debug('english','a fat  cat sat on a mat - it ate a fat rats');
   alias   |   description   | token |  dictionaries  |  dictionary  | lexemes 
-----------+-----------------+-------+----------------+--------------+---------
 asciiword | Word, all ASCII | a     | {english_stem} | english_stem | {}
 blank     | Space symbols   |       | {}             |              | 
 asciiword | Word, all ASCII | fat   | {english_stem} | english_stem | {fat}
 blank     | Space symbols   |       | {}             |              | 
 asciiword | Word, all ASCII | cat   | {english_stem} | english_stem | {cat}
 blank     | Space symbols   |       | {}             |              | 
 asciiword | Word, all ASCII | sat   | {english_stem} | english_stem | {sat}
 blank     | Space symbols   |       | {}             |              | 
 asciiword | Word, all ASCII | on    | {english_stem} | english_stem | {}
 blank     | Space symbols   |       | {}             |              | 
 asciiword | Word, all ASCII | a     | {english_stem} | english_stem | {}
 blank     | Space symbols   |       | {}             |              | 
 asciiword | Word, all ASCII | mat   | {english_stem} | english_stem | {mat}
 blank     | Space symbols   |       | {}             |              | 
 blank     | Space symbols   | -     | {}             |              | 
 asciiword | Word, all ASCII | it    | {english_stem} | english_stem | {}
 blank     | Space symbols   |       | {}             |              | 
 asciiword | Word, all ASCII | ate   | {english_stem} | english_stem | {ate}
 blank     | Space symbols   |       | {}             |              | 
 asciiword | Word, all ASCII | a     | {english_stem} | english_stem | {}
 blank     | Space symbols   |       | {}             |              | 
 asciiword | Word, all ASCII | fat   | {english_stem} | english_stem | {fat}
 blank     | Space symbols   |       | {}             |              | 
 asciiword | Word, all ASCII | rats  | {english_stem} | english_stem | {rat}
一个更广泛的例子,我们首先用英语创建一个 public.english配置和Ispell词典:
CREATE TEXT SEARCH CONFIGURATION public.english ( COPY = pg_catalog.english );
CREATE TEXT SEARCH DICTIONARY english_ispell (
    TEMPLATE = ispell,
    DictFile = english,
    AffFile = english,
    StopWords = english
);
ALTER TEXT SEARCH CONFIGURATION public.english
   ALTER MAPPING FOR asciiword WITH english_ispell, english_stem;SELECT * FROM ts_debug('public.english','The Brightest supernovaes');
   alias   |   description   |    token    |         dictionaries          |   dictionary   |   lexemes   
-----------+-----------------+-------------+-------------------------------+----------------+-------------
 asciiword | Word, all ASCII | The         | {english_ispell,english_stem} | english_ispell | {}
 blank     | Space symbols   |             | {}                            |                | 
 asciiword | Word, all ASCII | Brightest   | {english_ispell,english_stem} | english_ispell | {bright}
 blank     | Space symbols   |             | {}                            |                | 
 asciiword | Word, all ASCII | supernovaes | {english_ispell,english_stem} | english_stem   | {supernova}在这个例子中,Brightest是由解析器作为ASCII词来标识(别名asciiword)。 为这个标识类型,词典列表是english_ispell和english_stem。这个词通过english_ispell标识, 归纳它为名词bright。词supernovaes于english_ispell词典是未知的,所以它传递给下一个词典, 幸运的是,是公认的(事实上,english_stem是一个识别一切的Snowball词典; 这就是为什么它被放置在词典列表末尾的原因)。
词The是由 english_ispell词典被公认为屏蔽词(节第 12.6.1 节),不会被索引。 空间也被丢弃,因为该配置根本没有为它们提供词典。
你可以通过明确指定你想要查看的列减少输出的宽度:
SELECT alias, token, dictionary, lexemes
FROM ts_debug('public.english','The Brightest supernovaes');
   alias   |    token    |   dictionary   |   lexemes   
-----------+-------------+----------------+-------------
 asciiword | The         | english_ispell | {}
 blank     |             |                | 
 asciiword | Brightest   | english_ispell | {bright}
 blank     |             |                | 
 asciiword | supernovaes | english_stem   | {supernova}
下列函数允许直接测试文本搜索解析器。
ts_parse(parser_name text, document text,
         OUT tokid integer, OUT token text) returns setof record
ts_parse(parser_oid oid, document text,
         OUT tokid integer, OUT token text) returns setof record   
    
   ts_parse解析给定的document并返回一系列的记录,每一个标记通过解析而产生。
 每个记录包括tokid显示已分配的标记类型,并且token是标记的文本。比如:
SELECT * FROM ts_parse('default', '123 - a number');
 tokid | token
-------+--------
    22 | 123
    12 |
    12 | -
     1 | a
    12 |
     1 | number
ts_token_type(parser_name text, OUT tokid integer,
              OUT alias text, OUT description text) returns setof record
ts_token_type(parser_oid oid, OUT tokid integer,
              OUT alias text, OUT description text) returns setof record   
    ts_token_type返回一个表,这个表描述了每种可以识别的指定分析器标记类型。
每个标记类型,该表给出了整数tokid,解析器用于标记那个类型标记,alias命名配置命令的标记类型,
并且简称description。比如:
SELECT * FROM ts_token_type('default');
 tokid |      alias      |               description                
-------+-----------------+------------------------------------------
     1 | asciiword       | Word, all ASCII
     2 | word            | Word, all letters
     3 | numword         | Word, letters and digits
     4 | email           | Email address
     5 | url             | URL
     6 | host            | Host
     7 | sfloat          | Scientific notation
     8 | version         | Version number
     9 | hword_numpart   | Hyphenated word part, letters and digits
    10 | hword_part      | Hyphenated word part, all letters
    11 | hword_asciipart | Hyphenated word part, all ASCII
    12 | blank           | Space symbols
    13 | tag             | XML tag
    14 | protocol        | Protocol head
    15 | numhword        | Hyphenated word, letters and digits
    16 | asciihword      | Hyphenated word, all ASCII
    17 | hword           | Hyphenated word, all letters
    18 | url_path        | URL path
    19 | file            | File or path name
    20 | float           | Decimal notation
    21 | int             | Signed integer
    22 | uint            | Unsigned integer
    23 | entity          | XML entity
    ts_lexize函数有易于进行词典测试。
ts_lexize(dict regdictionary, token text) returns text[]
    如果输入token为词典已知的,那么ts_lexize返回词的数组,如果这个token对词典是已知的,
但它是一个屏蔽词,则返回空数组。如果它是一个未知的词则返回NULL。
比如:
SELECT ts_lexize('english_stem', 'stars');
 ts_lexize
-----------
 {star}
SELECT ts_lexize('english_stem', 'a');
 ts_lexize
-----------
 {}
注意:
ts_lexize函数需要单一标记,没有文本。这是一种引起混淆的情况:SELECT ts_lexize('thesaurus_astro','supernovae stars') is null; ?column? ---------- t同义词词典thesaurus_astro确实知道短语supernovae stars,但
ts_lexize失败了, 因为它不解析输入文本,而是把它作为一个单一标记。 使用plainto_tsquery或者to_tsvector测试同义词词典,例如:SELECT plainto_tsquery('supernovae stars'); plainto_tsquery ----------------- 'sn'