Let us mention what we propose in this research as its idea. In this r 번역 - Let us mention what we propose in this research as its idea. In this r 한국어 말하는 방법

Let us mention what we propose in t

Let us mention what we propose in this research as its idea. In this research, we consider the both similarity measures, feature similarity and feature value similarity, for computing the similarity between numerical vectors. The keyword extraction is viewed into the binary classification where a supervised learning algorithm is applicable. The KNN (K Nearest Neighbor) is modified into the version which accommodates the both similarity measures and applied to the keyword extraction task. Therefore, the goal of this research is to improve the keyword extraction performance by solving the above problems.

We mention what we expect from this research as the benefits. Considering the both similarities which are covered in this research opens the potential way of reducing the dimensionality of numerical vectors for encoding texts. Computing the similarity between two texts by the two measures reflects more semantic similarity between words. It is expected to improve the discriminations among even sparse vectors by using the both kinds of similarities. Therefore, this research pursues the benefits for implementing the keyword extraction systems.
0/5000
다음 언어를 번역: -
다음 언어로 번역: -
결과 (한국어) 1: [복제]
복사!
우리가 우리가 무엇을 제안 하는 그것의 아이디어로이 연구에서 언급. 이 연구에서 우리 모두 유사성 측정을, 기능 유사성 및 숫자 벡터 간의 유사성을 계산 기능 값 유사성을 고려 하십시오. 키워드 추출은 여기서 감독된 학습 알고리즘은 해당 이진 분류로 볼 수 있습니다. KNN (K 가까운 이웃) 두 유사 조치를 수용 하 고 키워드 추출 작업에 적용 되는 버전으로 수정 됩니다. 따라서,이 연구의 목표는 위의 문제를 해결 하 여 키워드 추출 성능 개선입니다.우리는 우리가이 연구 로부터 혜택으로 기대할 언급. 이 연구에 적용 되는 두 유사성을 고려 하면 텍스트 인코딩에 대 한 숫자 벡터의 차원 감소의 잠재적인 방법으로 엽니다. 두 측정에 의해 두 텍스트 간의 유사성을 계산 단어 사이 더 의미 체계 유사성을 반영 한다. 그것은 유사성의 두 종류를 사용 하 여도 스파스 벡터 사이 차별 개선 예정입니다. 따라서,이 연구는 키워드 추출 시스템 구현에 대 한 혜택을 추구 한다.
번역되고, 잠시 기다려주십시오..
결과 (한국어) 2:[복제]
복사!
우리는 우리가 생각으로이 연구에서 제안하는 무엇을 언급하자. 본 연구에서는 수치 벡터 간의 유사도를 계산하기위한 두 유사도, 특징 및 유사 특징 량의 유사도를 고려한다. 키워드 추출 감독 학습 알고리즘을 적용 이진 분류로 볼 수 있습니다. KNN (K 가까운 이웃) 유사도를 모두 수용 버전으로 수정 및 키워드 추출 작업에 적용된다. 따라서, 본 연구의 목적은 상기 문제점을 해결하여 키워드의 추출 성능을 개선하기위한 것이다. 우리는 이점 등이 연구에서 기대 언급. 이 연구에서 다루는 두 유사성을 고려하면 텍스트를 인코딩하는 수치 벡터의 차원을 감소의 잠재적 인 방법을 엽니 다. 이 조치에 의해 두 텍스트 사이의 유사도를 계산하는 단어 사이에 더 의미 론적 유사성을 반영한다. 이것은 유사성의 두 종류를 사용하여, 심지어 성긴 벡터 간의 차별을 개선 할 것으로 예상된다. 따라서 본 연구는 키워드 추출 시스템을 구현하는 장점을 추구.

번역되고, 잠시 기다려주십시오..
결과 (한국어) 3:[복제]
복사!
우리 얘기를 우리는 이 연구 그 생각이다.이 연구, 우리는 비슷한 조치를 비슷한, 다, 특성 특성 값 비슷한 수치 벡터 컴퓨터 비슷한 점이 있다.키워드 추출 것이다. 어디 보고 공부 두 분류 알고리즘.최근 (k 이웃) 하다. 이 두 버전 수 있는 데 비슷한 조치를 단어 추출 임무.그래서 이번 연구 단어 추출 성능 향상 문제를 해결하는.

얘기 우리가 원하는 것이 이 연구.이 고려 다 같은 이 연구 열 수 있는 방법은 수치 벡터 감소 차원 부호화 문자.계산 같 이 두 조치는 두 텍스트 단어 사이에 더 그런데요 반영한다.그것은 높일 성긴 벡터 차별 심지어 쓰는 중 두 가지 비슷한 점이 있다.그래서 이 연구 추구하는 실행 시스템 이익을 단어 추출.
번역되고, 잠시 기다려주십시오..
 
다른 언어
번역 도구 지원: 갈리시아어, 구자라트어, 그리스어, 네덜란드어, 네팔어, 노르웨이어, 덴마크어, 독일어, 라오어, 라트비아어, 라틴어, 러시아어, 루마니아어, 룩셈부르크어, 리투아니아어, 마라티어, 마오리어, 마케도니아어, 말라가시어, 말라얄람어, 말레이어, 몰타어, 몽골어, 몽어, 미얀마어 (버마어), 바스크어, 베트남어, 벨라루스어, 벵골어, 보스니아어, 불가리아어, 사모아어, 세르비아어, 세부아노, 세소토어, 소말리아어, 쇼나어, 순다어, 스와힐리어, 스웨덴어, 스코틀랜드 게일어, 스페인어, 슬로바키아어, 슬로베니아어, 신디어, 신할라어, 아랍어, 아르메니아어, 아이슬란드어, 아이티 크리올어, 아일랜드어, 아제르바이잔어, 아프리칸스어, 알바니아어, 암하라어, 언어 감지, 에스토니아어, 에스페란토어, 영어, 오리야어, 요루바어, 우르두어, 우즈베크어, 우크라이나어, 웨일즈어, 위구르어, 이그보어, 이디시어, 이탈리아어, 인도네시아어, 일본어, 자바어, 조지아어, 줄루어, 중국어, 중국어 번체, 체와어, 체코어, 카자흐어, 카탈로니아어, 칸나다어, 코르시카어, 코사어, 쿠르드어, 크로아티아어, 크메르어, 클링곤어, 키냐르완다어, 키르기스어, 타갈로그어, 타밀어, 타지크어, 타타르어, 태국어, 터키어, 텔루구어, 투르크멘어, 파슈토어, 펀자브어, 페르시아어, 포르투갈어, 폴란드어, 프랑스어, 프리지아어, 핀란드어, 하와이어, 하우사어, 한국어, 헝가리어, 히브리어, 힌디어, 언어 번역.

Copyright ©2024 I Love Translation. All reserved.

E-mail: