The idea of representing words as continuous real-valued vectors dates 번역 - The idea of representing words as continuous real-valued vectors dates 한국어 말하는 방법

The idea of representing words as c

The idea of representing words as continuous real-valued vectors dates way back to mid-80s [36]. The idea met its resurgence in [2], where a neural language model learns word embeddings as part of a neural network architecture for statistical language modeling. This work inspired other approaches that learn word embeddings within the neural-network language modeling framework [6, 7]. Word embeddings are tailored to capture semantics and encode a continuous notion of semantic similarity (as opposed to semantically poorer discrete representations), necessary to share information between words and other text units. Recently, the skip-gram and continuous bag-of-words (CBOW) model from [24, 25] revealed that the full neural-network structure is not needed at all to learn high-quality word embeddings (with extremely decreased training times compared to the full-fledged neural network models, see [24] for the full analysis of complexity of the models). These models are in fact simple single-layered architectures, where the objective is to predict a word’s context given the word itself (skip-gram) or predict a word given its context (CBOW). Similar models called vector log-bilinear models were recently proposed in [30, 32]. Due to its simplicity, as well as its efficacy and consequent popularity in various tasks [25, 21, 22], in this paper we will focus on the adaptation of the skip-gram model with negative sampling from [25]. Our new model will operate in multilingual settings and use only document-aligned comparable data for training.
0/5000
다음 언어를 번역: -
다음 언어로 번역: -
결과 (한국어) 1: [복제]
복사!
중반-80 [36]을 다시 연속 실제 값 벡터 날짜 방법으로 대표 하는 단어의 개념. 아이디어는 신경 언어 모델 통계 언어 모델링을 위한 신경 네트워크 아키텍처의 일부로 단어 포함을 배운다 [2], 그것의 부활을 만났다. 이 작품 영감 단어 포함 [6, 7] 신경 네트워크 언어 모델링 프레임 워크 내에서 배우는 다른 접근을. 말씀으로 의미를 캡처하고 인코딩할 단어와 다른 텍스트 단위 간에 정보를 공유 하는 데 필요한 (의미상 가난한 개별 표현), 반대로 의미 체계 유사성의 연속 개념에 맞게. 최근, 건너뛰기 그램 및 연속 가방의 단어 (CBOW)에서 모델 [24, 25] 전체 신경망 구조 고급 단어 포함 배워야 전혀 필요 하지 않습니다 밝혔다 (본격적인 신경 네트워크 모델에 비해 매우 감소 훈련 시간, 참조 [24] 모델의 복잡성의 완전 한 분석에 대 한). 이 모델은 사실 간단한 단일 계층 아키텍처, 목표 단어의 컨텍스트 주어진 단어를 예측 하는 자체 (건너뛰기-그램) 또는 그것의 컨텍스트 (CBOW) 주어진 단어를 예측. 벡터 로그 이중 선형 모델 이라고 하는 비슷한 모델에 최근에 제시 되었다 [30, 32]. 그것의 단순이 종이에 다양 한 작업 [25, 21, 22]에서 그 효능과 필연적인 인기 뿐만 아니라 우리에 초점 [25] 부정적인 샘플링 건너뛰기 그램 모델의 적응. 우리의 새로운 모델 다국어 설정에서 작동 하 고만 문서 정렬 비교 데이터를 사용 하 여 훈련에 대 한 것입니다.
번역되고, 잠시 기다려주십시오..
결과 (한국어) 2:[복제]
복사!
연속 실수 벡터로 단어를 표현하는 아이디어는 80 년대 중반 [36]에 방법 거슬러 올라간다. 아이디어는에서의 부활을 만났다 [2], 신경 언어 모델은 통계적 언어 모델링을위한 신경 네트워크 아키텍처의 한 부분으로 단어 묻어을 배우는 곳. 이 작품 신경 네트워크 언어 모델링 프레임 워크 내에서 단어 묻어 내용 영감을 다른 방법 [6, 7]. 단어가 단어 묻어 다른 텍스트 단위 사이의 정보를 공유 할 필요가 의미론을 캡쳐하고 (의미 상 좋지 이산 표현 대조적으로) 의미 유사도의 연속적인 개념을 인코딩하는데 맞게된다. 매우 훈련 시간에 비해 감소와 함께 [24, 25]에서 최근 스킵 그램 연속 가방-의이 단어들 (CBOW) 모델 (전체 신경망 구조는 고품질의 단어 묻어 내용은 전혀 필요하지 않은 것으로 나타났다 본격적인 신경망 모델, 모델의 복잡성)의 전체 분석을 위해 [24]를 참조하십시오. 이 모델은 목적은 단어의 문맥이 단어 자체 (이동 그램)을 부여 예측하거나 컨텍스트 (CBOW) 주어진 단어를 예측하는 것입니다 사실 간단한 단일 계층 아키텍처에 있습니다. 벡터 로그 - 선형 모델이라는 비슷한 모델은 최근 [30, 32]에서 제안되었다. 때문에 다양한 작업에서 단순뿐만 아니라 그 효능과 결과의 인기 [25, 21, 22, 우리는 [25]에서 음의 샘플링으로 건너 뛰기 그램 모델의 적응에 초점이 논문한다. 우리의 새로운 모델 다국어 설정에서 작동하고 훈련을 위해 전용 문서 정렬 비교 데이터를 사용합니다.
번역되고, 잠시 기다려주십시오..
결과 (한국어) 3:[복제]
복사!
대표님, 말은 생각이 끊임없이 실수 벡터 날짜 1980년대 중반 [36] 가.그 생각이 다시 만난 [] 신경 언어 모드, 어디 있는 것을 한 부분 말 신경 회로망 통계 언어, 모델.이 일을 알고 있는 다른 방법을 사용하여 네트워크 언어 단어 안에 프레임 모델 (6, 7].말 잘 의미 있는 나리, 코드 "의 비슷한 연속 (건가요, 어의 가난한 이산 표시) 사이에 필요한 정보를 다른 텍스트 단어 단위.최근 몇 년 동안, 그람, 연속 가방 단어 건너뛰기 (cbow) 모드 표시 (24 25] 충분히 신경 구조 필요 없다. 모든 배울 수 있는 양질의 단어 (훈련 배 매우 떨어지고 전면 신경 모델, 보고 (24) 복잡한 충분히 분석 모델).사실 이 모델 층상 구조 단순한, 그 목적은 예측할 수 있어서 한 말 때문에 자기 것으로 (뛰어 그램) 한 거야, 말 내용 (cbow).벡터 로그 비슷한 모델 요즘 선형 모델 방법 32] [30일.때문에 그 간단한, 그 후 각 임무를 인기 효과 (25, 21 22], 이 글은 중점 적응 그람 모델 준비해서 마이너스 샘플링 [25].우리는 새로운 모델 중, 언어 설정 사용 실행 파일 정렬 겨우 데이터를 훈련.
번역되고, 잠시 기다려주십시오..
 
다른 언어
번역 도구 지원: 갈리시아어, 구자라트어, 그리스어, 네덜란드어, 네팔어, 노르웨이어, 덴마크어, 독일어, 라오어, 라트비아어, 라틴어, 러시아어, 루마니아어, 룩셈부르크어, 리투아니아어, 마라티어, 마오리어, 마케도니아어, 말라가시어, 말라얄람어, 말레이어, 몰타어, 몽골어, 몽어, 미얀마어 (버마어), 바스크어, 베트남어, 벨라루스어, 벵골어, 보스니아어, 불가리아어, 사모아어, 세르비아어, 세부아노, 세소토어, 소말리아어, 쇼나어, 순다어, 스와힐리어, 스웨덴어, 스코틀랜드 게일어, 스페인어, 슬로바키아어, 슬로베니아어, 신디어, 신할라어, 아랍어, 아르메니아어, 아이슬란드어, 아이티 크리올어, 아일랜드어, 아제르바이잔어, 아프리칸스어, 알바니아어, 암하라어, 언어 감지, 에스토니아어, 에스페란토어, 영어, 오리야어, 요루바어, 우르두어, 우즈베크어, 우크라이나어, 웨일즈어, 위구르어, 이그보어, 이디시어, 이탈리아어, 인도네시아어, 일본어, 자바어, 조지아어, 줄루어, 중국어, 중국어 번체, 체와어, 체코어, 카자흐어, 카탈로니아어, 칸나다어, 코르시카어, 코사어, 쿠르드어, 크로아티아어, 크메르어, 클링곤어, 키냐르완다어, 키르기스어, 타갈로그어, 타밀어, 타지크어, 타타르어, 태국어, 터키어, 텔루구어, 투르크멘어, 파슈토어, 펀자브어, 페르시아어, 포르투갈어, 폴란드어, 프랑스어, 프리지아어, 핀란드어, 하와이어, 하우사어, 한국어, 헝가리어, 히브리어, 힌디어, 언어 번역.

Copyright ©2025 I Love Translation. All reserved.

E-mail: