We propose a new unified framework for monolingual (MoIR) and cross-li 번역 - We propose a new unified framework for monolingual (MoIR) and cross-li 한국어 말하는 방법

We propose a new unified framework

We propose a new unified framework for monolingual (MoIR) and cross-lingual information retrieval (CLIR) which relies on the induction of dense real-valued word vectors known as word embeddings (WE) from comparable data. To this end, we make several important contributions: (1) We present a novel word representation learning model called Bilingual Word Embeddings Skip-Gram (BWESG) which is the first model able to learn bilingual word embeddings solely on the basis of document-aligned comparable data; (2) We demonstrate a simple yet effective approach to building document embeddings from single word embeddings by utilizing models from compositional distributional semantics. BWESG induces a shared cross-lingual embedding vector space in which both words, queries, and documents may be presented as dense realvalued vectors; (3) We build novel ad-hoc MoIR and CLIR models which rely on the induced word and document embeddings and the shared cross-lingual embedding space; (4) Experiments for English and Dutch MoIR, as well as for English-to-Dutch and Dutch-toEnglish CLIR using benchmarking CLEF 2001-2003 collections and queries demonstrate the utility of our WE-based MoIR and CLIR models. The best results on the CLEF collections are obtained by the combination of the WE-based approach and a unigram language model. We also report on significant improvements in ad-hoc IR tasks of our WE-based framework over the state-of the-art framework for learning text representations from comparable data based on latent Dirichlet allocation (LDA).
0/5000
다음 언어를 번역: -
다음 언어로 번역: -
결과 (한국어) 1: [복제]
복사!
(모이 어) 사용에 대 한 새로운 통합된 프레임 워크를 제안 하는 우리와 교차 언어 정보 검색 (CLIR) 밀도 진짜 반환 단어 벡터의 유도에 의존 비교 데이터에서 단어 포함 (우리)로 알려진. 이 위해, 우리는 몇 가지 중요 한 기여를 만들: (1) 우리 국어 단어 포함 건너뛰기-그램 (BWESG) 이중 언어 단어 포함 문서 정렬 비교 데이터; 기초만 배울 수 있는 첫 번째 모델은 모델 학습 소설 단어 표현 제시 (2) 우리 작곡 분포 의미에서 모델을 사용 하 여 문서 포함 한 단어 포함에서 건물에 단순 하지만 효과적인 접근 방식을 보여 줍니다. BWESG 유도는 단어, 쿼리 및 문서 수 있습니다 수 여 밀도 realvalued 벡터;로 공유 크로스-언어 포함 벡터 공간 (3) 우리 소설 임시 유발된 단어와 문서 포함 및 공유 크로스-언어 포함 공간;에 의존 하는 모이 어와 CLIR 모델 구축 (4) 실험 영어 및 네덜란드 모이 어, 뿐만 아니라 영어 네덜란드어 및 네덜란드어 영어 CLIR 벤치마킹 음자리표 2001-2003 컬렉션 및 쿼리를 사용 하 여 우리의 우리가 기반 모이 어와 CLIR 모델의 유틸리티를 보여 줍니다. 음자리표 컬렉션에 최상의 결과 우리가 기반 접근 그리고 unigram 언어 모델의 조합에 의해 얻을 수 있습니다. 우리는 또한 상태-의-아트 프레임 워크 잠재 디리클레 할당 (LDA)에 따라 비교 데이터에서 텍스트 표현 학습을 통해 우리의 우리가 기반 프레임 워크의 임시 IR 작업에 상당한 개선에 보고 합니다.
번역되고, 잠시 기다려주십시오..
결과 (한국어) 2:[복제]
복사!
우리는 비교 데이터에서 단어 묻어 (WE)로 알려진 고밀도 실수 워드 벡터의 유도에 의존하는 단일 언어 (MOIR) 및 교차 언어 정보 검색 (CLIR)을위한 새로운 통합 프레임 워크를 제안한다. 이를 위해, 우리는 몇 가지 중요한 기여를 할 : (1) 우리는 전적으로 문서 정렬에 기초 국어 단어 묻어을 배울 수있는 첫 번째 모델이다 이중 언어 말씀 묻어 건너 뛰기 - 그램 (BWESG)라는 새로운 단어 표현 학습 모델을 제시 비교 데이터; (2) 조성 분배 의미에서 모델을 이용하여 하나의 단어에 묻어에서 문서 묻어을 구축하는 간단하면서도 효과적인 접근 방식을 보여줍니다. BWESG는 두 단어, 쿼리 및 문서 밀도 realvalued 벡터로 표현 될 수있는 벡터 공간을 포함하여 공유 교차 언어를 유도; (3) 유도 된 단어 및 문서 묻어과 공유 교차 언어 삽입 공간에 의존 새로운 임시 모이어와 CLIR 모델을 구축; (4)뿐만 아니라 투 - 네덜란드어 영어와 네덜란드어 - toEnglish CLIR 벤치마킹 음자리표에게 2001-2003 컬렉션 및 쿼리를 사용하여 영어와 네덜란드어 모이어에 대한 실험은 우리의 WE-기반 모이어와 CLIR 모델의 유틸리티를 보여줍니다. 음자리표 컬렉션에 가장 좋은 결과는 WE-기반의 접근 방식과 음절 언어 모델의 조합에 의해 얻어진다. 우리는 또한 잠재 디리클레 할당 (LDA)을 기준으로 비교 데이터의 텍스트 표현을 학습에 대한 최신 상태의 프레임 워크를 통해 우리의 WE-기반 프레임 워크의 임시 IR 작업에 상당한 개선에보고한다.
번역되고, 잠시 기다려주십시오..
결과 (한국어) 3:[복제]
복사!
우리는 새로운 통일 틀 언어 (무아르), 크로스 언어 정보 검색 (의존적입니다 도입) 유도 비밀 실수 단어 벡터 있는 걸 말 (우리) 은 정말 데이터.이 몇 가지 중요한 공헌을 할 수: (1) 이 새로운 단어 표시 있는 걸 이중 언어 단어 건너뛰기 학습 모델 그람 (bwesg) 이 첫 모델 이중 언어 단어 단지 알 수 있는 기초 위에 더 데이터 파일 정렬 (2) 는 간단하면서도 효과적인 방법은 우리가 한 건물 파일 그 글자 이용할 수 있는 그런 모델 분포 어의 성분.bwesg 유도 공동 부서를 혀 않습니다. 이 두 단어를 벡터 공간 의문을 제기할 수 있으며, 파일 비밀 운용 实值 매체; (3) 우리 모델, 새로운 스스로 무아르 크로스 의지해 유도 글자, 파일 공유 적이 있는, 혀 있는 공간 (4) 시험, 영어, 네덜란드 무아르, 고 더치, 네덜란드 번역한 영어 영어 크로스 - 2003 수집 및 검색 사용할 기본 표시 표 효용 따라, 우리는 무아르 도입 모델.가장 좋은 성과를 얻은 표 그룹 소장하고 이 우리 바탕으로 한 언어 모드, 원.우리는 아직 보고 - 임무를 중대한 진전이 있다 우리 프레임 프레임 지나치게 예술 상태 학습 텍스트 표시 기반 정말 자료 몰래 값 설정 (l).
번역되고, 잠시 기다려주십시오..
 
다른 언어
번역 도구 지원: 갈리시아어, 구자라트어, 그리스어, 네덜란드어, 네팔어, 노르웨이어, 덴마크어, 독일어, 라오어, 라트비아어, 라틴어, 러시아어, 루마니아어, 룩셈부르크어, 리투아니아어, 마라티어, 마오리어, 마케도니아어, 말라가시어, 말라얄람어, 말레이어, 몰타어, 몽골어, 몽어, 미얀마어 (버마어), 바스크어, 베트남어, 벨라루스어, 벵골어, 보스니아어, 불가리아어, 사모아어, 세르비아어, 세부아노, 세소토어, 소말리아어, 쇼나어, 순다어, 스와힐리어, 스웨덴어, 스코틀랜드 게일어, 스페인어, 슬로바키아어, 슬로베니아어, 신디어, 신할라어, 아랍어, 아르메니아어, 아이슬란드어, 아이티 크리올어, 아일랜드어, 아제르바이잔어, 아프리칸스어, 알바니아어, 암하라어, 언어 감지, 에스토니아어, 에스페란토어, 영어, 오리야어, 요루바어, 우르두어, 우즈베크어, 우크라이나어, 웨일즈어, 위구르어, 이그보어, 이디시어, 이탈리아어, 인도네시아어, 일본어, 자바어, 조지아어, 줄루어, 중국어, 중국어 번체, 체와어, 체코어, 카자흐어, 카탈로니아어, 칸나다어, 코르시카어, 코사어, 쿠르드어, 크로아티아어, 크메르어, 클링곤어, 키냐르완다어, 키르기스어, 타갈로그어, 타밀어, 타지크어, 타타르어, 태국어, 터키어, 텔루구어, 투르크멘어, 파슈토어, 펀자브어, 페르시아어, 포르투갈어, 폴란드어, 프랑스어, 프리지아어, 핀란드어, 하와이어, 하우사어, 한국어, 헝가리어, 히브리어, 힌디어, 언어 번역.

Copyright ©2025 I Love Translation. All reserved.

E-mail: