Different aspects of the curse of dimensionality are known to present  번역 - Different aspects of the curse of dimensionality are known to present  한국어 말하는 방법

Different aspects of the curse of d

Different aspects of the curse of dimensionality are known to present serious challenges to various machine-learning methods and tasks. This paper explores a new aspect of the dimensionality curse, referred to as hubness, that affects the distribution of k-occurrences: the number of times a point appears among the k nearest neighbors of other points in a data set. Through theoretical and empirical analysis involving synthetic and real data sets we show that under commonly used assumptions this distribution becomes considerably skewed as dimensionality increases, causing the emergence of hubs, that is, points with very high k-occurrences which effectively represent “popular” nearest neighbors. We examine the origins of this phenomenon, showing that it is an inherent property of data distributions in high-dimensional vector space, discuss its interaction with dimensionality reduction, and explore its influence on a wide range of machine-learning tasks directly or indirectly based on measuring distances, belonging to supervised, semi-supervised, and unsupervised learning families.
0/5000
다음 언어를 번역: -
다음 언어로 번역: -
결과 (한국어) 1: [복제]
복사!
차원의 저주의 다른 측면은 다양 한 기계 학습 방법 및 작업에 심각한 도전을 제시 알려져 있습니다. 이 종이 hubness, k-발생의 분포에 영향을 미치는 차원 저주의 새로운 측면을 탐구: 데이터 집합에서 다른 포인트의 이웃 가장 가까운 k 지점에 표시 됩니다 횟수. 우리가 보여주는 아래 일반적으로 관련 된 합성 및 실제 데이터 집합 사용이 배포 된다 상당히 괴상 한 가정 차원 증가 이론적, 경험적 분석을 통해 효과적으로 가장 가까운 이웃 "인기"를 대표 하는 매우 높은 k 발생 된 포인트 즉, 허브의 출현을 일으키는. 우리이 현상의 기원을 검토 하를 데이터 배포판의 고유의 속성 다는 것을 보여주는 높은 차원 벡터 공간에 차원 감소와의 상호 작용을 토론 하 고 다양 한 직접 또는 간접적으로, 반 감독, 감독 및 자율 학습 가족에 속하는 거리 측정에 따라 기계 학습 작업에 미치는 영향을 탐구 합니다.
번역되고, 잠시 기다려주십시오..
결과 (한국어) 2:[복제]
복사!
차원의 저주의 다른 측면은 다양한 기계 학습 방법 및 작업에 심각한 도전을 제시하는 것으로 알려져있다. 포인트가 데이터 세트의 다른 지점의 K 가까운 이웃 사이에 나타납니다 횟수 :이 논문은 K-발생의 분포에 영향을 hubness라고 차원의 저주의 새로운 측면을, 탐구한다. 이론 및 실증 분석을 통해 우리가 일반적으로 사용되는 가정에서이 메일을 효과적으로 가까운 "인기있는"표현 매우 높은 K-발생과 허브의 출현, 즉, 포인트 일으키는 차원이 증가함에 따라 상당히 왜곡되고 있음을 보여 합성 및 실제 데이터 세트를 포함 이웃. 우리는, 차원 축소와의 상호 작용에 대해 설명하고, 직접 또는 간접적으로 기반 기계 학습 광범위한 작업에 미치는 영향을 탐구가 높은 차원 벡터 공간에서 데이터 분포의 고유 한 속성이 있음을 보여주는,이 현상의 기원을 조사 , 감독 반 감독 및 자율 학습 가족에 속하는 거리를 측정.
번역되고, 잠시 기다려주십시오..
결과 (한국어) 3:[복제]
복사!
차원 다른 방면의 아는 다른 현재 심각한 도전 기계 학습 방법 및 임무.이 글은 새로운 국면을 저주 한 차원 불리는 hubness, 영향을 k-occurrences: 분포 몇 번 중 한 점에 k 이웃 기타 좀 데이터 세트.실증 분석을 통해 관련된 데이터 세트 합성, 진짜 우리 따르면, 이 분포 쓰는 것을 더 크게 불균형 차원 증가 때문에 센터, 나타난 것은 매우 높은, 좀 k-occurrences 효과적으로 대표 "일반" 이웃.우리 검사 이 현상 기원 따르면 이 데이터 분포 고유의 속성 유지하다 벡터 공간, 그 얘기 인 검토 내리다, 대한 다양한 기계 학습 임무를 직접 혹은 간접적으로 측정 거리를 따라, 소속 감독, 반 감독, 가족, 감독 배우다.
번역되고, 잠시 기다려주십시오..
 
다른 언어
번역 도구 지원: 갈리시아어, 구자라트어, 그리스어, 네덜란드어, 네팔어, 노르웨이어, 덴마크어, 독일어, 라오어, 라트비아어, 라틴어, 러시아어, 루마니아어, 룩셈부르크어, 리투아니아어, 마라티어, 마오리어, 마케도니아어, 말라가시어, 말라얄람어, 말레이어, 몰타어, 몽골어, 몽어, 미얀마어 (버마어), 바스크어, 베트남어, 벨라루스어, 벵골어, 보스니아어, 불가리아어, 사모아어, 세르비아어, 세부아노, 세소토어, 소말리아어, 쇼나어, 순다어, 스와힐리어, 스웨덴어, 스코틀랜드 게일어, 스페인어, 슬로바키아어, 슬로베니아어, 신디어, 신할라어, 아랍어, 아르메니아어, 아이슬란드어, 아이티 크리올어, 아일랜드어, 아제르바이잔어, 아프리칸스어, 알바니아어, 암하라어, 언어 감지, 에스토니아어, 에스페란토어, 영어, 오리야어, 요루바어, 우르두어, 우즈베크어, 우크라이나어, 웨일즈어, 위구르어, 이그보어, 이디시어, 이탈리아어, 인도네시아어, 일본어, 자바어, 조지아어, 줄루어, 중국어, 중국어 번체, 체와어, 체코어, 카자흐어, 카탈로니아어, 칸나다어, 코르시카어, 코사어, 쿠르드어, 크로아티아어, 크메르어, 클링곤어, 키냐르완다어, 키르기스어, 타갈로그어, 타밀어, 타지크어, 타타르어, 태국어, 터키어, 텔루구어, 투르크멘어, 파슈토어, 펀자브어, 페르시아어, 포르투갈어, 폴란드어, 프랑스어, 프리지아어, 핀란드어, 하와이어, 하우사어, 한국어, 헝가리어, 히브리어, 힌디어, 언어 번역.

Copyright ©2024 I Love Translation. All reserved.

E-mail: