Term filtering. Learning ontologies from the text is subject to high false alarms caused by a large number of extraneous terms in discovering domain-specific concepts. The noise terms would engender even more superfluous associations and computation cost. Therefore, it is important to filter such terms as early as possible in ontology learning. Mutual information and traditional term weighting techniques developed for information retrieval have been utilized in selecting domain-specific terms [32, 104]. Contrast analysis is another practical means to distinguish concepts of the target domain from those of other domains [28, 67]. Nonetheless, how to select contrast domain(s) remains an issue. Such domains are expected to be diverse enough to identify domain-specific concepts and similar enough to screen out common terms. Furthermore, anaphora resolution [105] and co-reference resolution [106], aiming to identify entities referred by pronouns and definite noun phrases, has great potential in refining the discovery of concepts and relations.
필터링 용어. 많은 검색 도메인 관련 개념 없는 조건으로 인 한 높은 가짜 경보는 텍스트 로부터 온톨로지를 학습. 소음 용어 것 더 많은 불필요 한 연결 및 계산 비용 낳 다. 따라서, 그것은 존재론 학습에 가능한 한 빨리 이러한 용어를 필터링 하는 것이 중요입니다. 전통적인 용어 가중치 기법 정보 검색에 대 한 개발 및 상호 정보 [32, 104] 도메인 관련 용어 선택에 이용 되었습니다. 대비 분석은 다른 실용적인 [28, 67] 다른 도메인의 대상 도메인의 개념을 구별 하는 것을 의미 합니다. 그럼에도 불구 하 고, 대비 도메인을 선택 하는 방법에 문제가 남아 있다. 이러한 도메인 도메인 관련 개념을 식별 하는 다양 한 고 충분히 일반적인 용어를 화면 비슷한 것으로 예상 된다. 또한, anaphora 해상도 [105] 그리고 공동 참조 확인 [106], 엔터티를 식별 하는 것을 작정 인 대명사와 명확한 명사 어구에 의해 참조 된, 개념 및 관계의 발견을 정제에 큰 잠재력이 있다.
번역되고, 잠시 기다려주십시오..
