diff --git a/doc/locales/ko/LC_MESSAGES/framework-docs.po b/doc/locales/ko/LC_MESSAGES/framework-docs.po index 3c41a8647c35..89b89de22be4 100644 --- a/doc/locales/ko/LC_MESSAGES/framework-docs.po +++ b/doc/locales/ko/LC_MESSAGES/framework-docs.po @@ -8,8 +8,8 @@ msgstr "" "Project-Id-Version: Flower main\n" "Report-Msgid-Bugs-To: \n" "POT-Creation-Date: 2024-06-17 16:09+0200\n" -"PO-Revision-Date: 2024-06-23 14:41+0000\n" -"Last-Translator: 박태현 \n" +"PO-Revision-Date: 2024-06-25 02:09+0000\n" +"Last-Translator: Sijiaomg Ohoh \n" "Language-Team: Korean \n" "Language: ko\n" @@ -8575,7 +8575,7 @@ msgstr ":py:obj:`context `\\" #: flwr.simulation.app.start_simulation #: flwr.simulation.run_simulation.run_simulation of msgid "Parameters" -msgstr "매개변수" +msgstr "파라미터" #: flwr.client.client.Client.evaluate:3 of msgid "" @@ -22510,6 +22510,10 @@ msgid "" "developed that keyboard, do you? In fact, that use case was the reason " "federated learning was invented in the first place." msgstr "" +"**사용자 선호도**:규정 외에도 일부 사용 사례에서 사용자는 데이터가 자기 " +"장치를 떠나지 않기를 예상합니다. 휴대폰의 디지털 키보드에 비밀번호와 " +"신용카드 정보를 입력하면 비밀번호가 해당 키보드를 개발한 회사의 서버에 뜨길 " +"원하지는 않겠죠? 사실, 이 사용 사례가 애당초 연합 학습이 발명된 이유였습니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:161 msgid "" @@ -22522,29 +22526,36 @@ msgid "" "exceedingly expensive infrastructure to process and store. And most of the " "data isn't even useful." msgstr "" +"**데이터 볼륨**:일부 센서(예:카메라)는 너무 많은 데이터 볼륨을 생성하여 모든 " +"데이터를 수집하는 것이 실현 가능하지도 않고 경제적이지도 않습니다(예: 대역폭 " +"또는 통신 효율로 인해). 전국에 수백 개 기차역이 있는 국가 철도 서비스를 " +"생각해 보세요. 각 기차역에 수 많은 보안 카메라가 설치되어 있다면,그들이 " +"생산하는 대량의 원시 온디바이스 데이터는 처리 및 저장을 위해 엄청나게 " +"강력하고 매우 비싼 인프라를 필요로 합니다.그런데 대부분의 데이터는 " +"유용하지도 않습니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:164 msgid "Examples where centralized machine learning does not work include:" -msgstr "" +msgstr "중앙 집중식 머신러닝이 작동하지 않는 예는 다음과 같습니다:" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:166 msgid "" "Sensitive healthcare records from multiple hospitals to train cancer " "detection models" -msgstr "" +msgstr "여러 병원의 민감한 의료기록으로 암 검진 모델 훈련" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:167 msgid "" "Financial information from different organizations to detect financial fraud" -msgstr "" +msgstr "금융 사기를 탐지하기 위한 다양한 조직의 금융 정보" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:168 msgid "Location data from your electric car to make better range prediction" -msgstr "" +msgstr "더 나은 범위 예측을 위해 전기 자동차의 위치 데이터" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:169 msgid "End-to-end encrypted messages to train better auto-complete models" -msgstr "" +msgstr "더 나은 자동 완성 모델을 훈련시키기 위한 엔드 투 엔드 암호화된 메시지" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:171 msgid "" @@ -22556,10 +22567,17 @@ msgid "" "private data? After all, these are all areas that would benefit " "significantly from recent advances in AI." msgstr "" +"`Brave `__ 브라우저나 `Signal `__ " +"메신저와 같은 개인 정보 보호 시스템의 인기는 사용자들이 개인 정보 보호에 " +"신경 쓴다는 것을 보여줍니다. 실제로 그러한 대안이 존재하는 경우 다른 " +"대안보다 개인 정보 보호 강화 버전을 선택합니다. 그런데 이러한 사례에 머신 " +"러닝 및 데이터 과학을 적용하여 프라이버시 데이터를 활용하려면 어떻게 해야 " +"합니까? 이 모든 분야는 최근 AI의 발전으로 상당한 이익을 얻을 수 있는 " +"분야입니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:186 msgid "Federated learning" -msgstr "" +msgstr "연방 학습" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:188 msgid "" @@ -22567,14 +22585,17 @@ msgid "" "learning on distributed data by moving the training to the data, instead of " "moving the data to the training. Here's the single-sentence explanation:" msgstr "" +"연방 학습은 이 방법을 쉽게 뒤집었습니다. 데이터를 훈련으로 옮기는 대신 " +"데이터로 훈련을 전환함으로써 분산된 데이터에서 머신러닝을 실현합니다.다음은 " +"한마디로 설명입니다:" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:190 msgid "Central machine learning: move the data to the computation" -msgstr "" +msgstr "중앙 집중식 머신러닝: 데이터를 컴퓨팅 센터로 이동" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:191 msgid "Federated (machine) learning: move the computation to the data" -msgstr "" +msgstr "연방(기계)학습: 컴퓨팅을 데이터로 옮김" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:193 msgid "" @@ -22589,20 +22610,28 @@ msgid "" "more and more areas that can suddenly be reinvented because they now have " "access to vast amounts of previously inaccessible data." msgstr "" +"이를 통해 이전에는 불가능했던 분야에서 머신 러닝(및 기타 데이터 과학 방법)을 " +"사용할 수 있습니다. 이제 다양한 병원이 협력할 수 있도록 함으로써 우수한 의료 " +"AI 모델을 훈련할 수 있습니다. 다양한 금융 기관의 데이터에 대한 AI 모델을 " +"훈련하여 금융 사기를 해결할 수 있습니다. 개인 정보 보호를 강화하지 않는 " +"대안보다 더 나은 AI가 내장된 새로운 개인 정보 보호 강화 애플리케이션(예: " +"보안 메시징)을 구축할 수 있습니다.그것들은 떠오르는 몇 가지 예에 불과합니다. " +"연합 학습을 구축함에 따라 이전에 액세스할 수 없었던 많은 데이터에 액세스할 " +"수 있게 되었기 때문에 갑자기 재생될 수 있는 영역이 점점 더 많아지고 있습니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:196 msgid "" "So how does federated learning work, exactly? Let's start with an intuitive " "explanation." -msgstr "" +msgstr "그렇다면 연방 학습은어떻게 작동합니까?직관적인 설명부터 시작하겠습니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:199 msgid "Federated learning in five steps" -msgstr "" +msgstr "연방 학습의 5단계" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:202 msgid "Step 0: Initialize global model" -msgstr "" +msgstr "0단계: 전역 모델 초기화" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:204 msgid "" @@ -22610,20 +22639,23 @@ msgid "" "in classic centralized learning: we initialize the model parameters, either " "randomly or from a previously saved checkpoint." msgstr "" +"서버에서 모델을 초기화하는 것으로 시작합니다. 클래식 중앙 집중식 학습에서도 " +"완전히 동일합니다: 임의로 또는 이전에 저장된 체크포인트에서 모델 매개변수를 " +"초기화합니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:210 msgid "|c7afb4c92d154bfaa5e8cb9a150e17f1|" -msgstr "" +msgstr "|c7afb4c92d154bfaa5e8cb9a150e17f1|" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:307 msgid "Initialize global model" -msgstr "" +msgstr "전역 모델 초기화" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:217 msgid "" "Step 1: Send model to a number of connected organizations/devices (client " "nodes)" -msgstr "" +msgstr "1단계: 연결된 여러 조직/장치(클라이언트 노드)에 모델 전송" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:219 msgid "" @@ -22634,20 +22666,25 @@ msgid "" "the connected nodes instead of all nodes. The reason for this is that " "selecting more and more client nodes has diminishing returns." msgstr "" +"다음으로 글로벌 모델의 파라미터를 연결된 클라이언트 노드(예: 스마트폰과 같은 " +"에지 디바이스 또는 조직에 속한 서버)로 보냅니다. 이것은 각 참여 노드가 " +"동일한 모델 매개변수를 사용하여 로컬 훈련을 시작하도록 하기 위함입니다. " +"일반적으로 모든 노드가 아닌 몇 개의 연결 노드만 사용합니다. 그 이유는 점점 " +"더 많은 클라이언트 노드를 선택하면 수익률이 감소하는 것입니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:225 msgid "|032eb6fed6924ac387b9f13854919196|" -msgstr "" +msgstr "|032eb6fed6924ac387b9f13854919196|" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:309 msgid "Send global model" -msgstr "" +msgstr "전역 모델 전송" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:232 msgid "" "Step 2: Train model locally on the data of each organization/device (client " "node)" -msgstr "" +msgstr "2단계: 각 조직/장치(클라이언트 노드)의 데이터에 대해 로컬로 모델 훈련" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:234 msgid "" @@ -22658,18 +22695,23 @@ msgid "" "little as one epoch on the local data, or even just a few steps (mini-" "batches)." msgstr "" +"이제 모든(선택된) 클라이언트 노드에는 최신 버전의 글로벌 모델 파라미터가 " +"있으며 로컬 훈련을 시작합니다. 그들은 자신의 로컬 데이터 세트를 사용하여 " +"자신의 로컬 모델을 훈련합니다. 모델이 완전히 수렴할 때까지 훈련하지 않고 " +"잠시만 훈련합니다. 이는 로컬 데이터에서 한 단계 정도로 짧거나 몇 단계(mini-" +"batches)에 불과할 수 있습니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:240 msgid "|fbf225add7fd4df5a9bf25a95597d954|" -msgstr "" +msgstr "|fbf225add7fd4df5a9bf25a95597d954|" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:311 msgid "Train on local data" -msgstr "" +msgstr "로컬 데이터에 대한 훈련" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:247 msgid "Step 3: Return model updates back to the server" -msgstr "" +msgstr "3단계: 모델 파라미터를 업데이트하여 서버로 되돌리기" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:249 msgid "" @@ -22680,18 +22722,23 @@ msgid "" "The model updates they send can either be the full model parameters or just " "the gradients that were accumulated during local training." msgstr "" +"로컬 훈련 후에는 클라이언트 노드마다 원래 받은 모델 파라미터의 버전이 조금씩 " +"다릅니다. 파라미터가 다른 이유는 각 클라이언트 노드의 로컬 데이터 세트에 " +"다른 데이터가 있기 때문입니다. 그런 다음 클라이언트 노드는 이러한 모델 " +"업데이트를 서버로 다시 보냅니다. 보내는 모델 업데이트는 전체 모델 " +"파라미터거나 로컬 교육 중에 누적된 그래디언트일 수 있습니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:255 msgid "|7efbe3d29d8349b89594e8947e910525|" -msgstr "" +msgstr "|7efbe3d29d8349b89594e8947e910525|" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:313 msgid "Send model updates" -msgstr "" +msgstr "모델 업데이트 전송" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:262 msgid "Step 4: Aggregate model updates into a new global model" -msgstr "" +msgstr "4단계: 모델 업데이트를 새 글로벌 모델로 집계" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:264 msgid "" @@ -22701,6 +22748,11 @@ msgid "" "didn't we want to have one model that contains the learnings from the data " "of all 100 client nodes?" msgstr "" +"서버는 선택된 클라이언트 노드들로부터 모델 업데이트들을 수신합니다. 서버가 " +"100개의 클라이언트 노드를 선택했다면 이제 각각 클라이언트의 로컬 데이터를 " +"기반으로 훈련된 100개의 약간 다른 원래 글로벌 모델 버전을 갖게 됩니다. " +"하지만 우리는 100개의 모든 클라이언트 노드의 데이터에서 학습한 내용을 " +"포함하는 모델을 하나 갖고 싶지 않았습니까?" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:266 msgid "" @@ -22717,18 +22769,29 @@ msgid "" "examples, then - without weighting - each of the 10 examples would influence " "the global model ten times as much as each of the 100 examples." msgstr "" +"단일 모델 하나를 얻으려면 클라이언트 노드에서 받은 모든 모델 업데이트를 " +"결합해야 합니다. 이 과정이 *집합*라고 하며 여러 가지 방법이 있습니다. 가장 " +"기본적인 방법은*Federated Averaging* (`McMahan et al., 2016 `__)이라고 하고 보통 줄여서 *FedAvg*로 표기합니다. " +"*FedAvg* 는 100개의 모델 업데이트를 받아 이름에서 알 수 있듯이 모델 " +"업데이트를 평균화합니다. 더 정확히 말하면, 모델 업데이트의 *가중 평균* 을 각 " +"클라이언트가 훈련에 사용한 예제 수에 따라 가중치를 부여합니다. 가중치는 각 " +"데이터 예제가 결과 글로벌 모델에 동일한 \"영향\" 을 미치는지 확인하는 데 " +"중요합니다. 한 클라이언트에 10개의 데이터 포인트가 있고 다른 클라이언트에 " +"100개의 데이터 포인트가 있다면 가중치를 부여하지 않고 10개의 예가 100개의 " +"사례보다 글로벌 모델에 10배 더 많은 영향을 미칩니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:273 msgid "|329fb3c04c744eda83bb51fa444c2266|" -msgstr "" +msgstr "|329fb3c04c744eda83bb51fa444c2266|" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:315 msgid "Aggregate model updates" -msgstr "" +msgstr "모델 업데이트 집계" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:280 msgid "Step 5: Repeat steps 1 to 4 until the model converges" -msgstr "" +msgstr "5단계: 모델이 수렴할 때까지 1~4단계를 반복합니다" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:282 msgid "" @@ -22738,6 +22801,11 @@ msgid "" "models to the server (step 3), and the server then aggregates the model " "updates to get a new version of the global model (step 4)." msgstr "" +"단계 1에서 4는 우리가 말하는 단일 라운드 연방 학습입니다. 글로벌 모델 " +"파라미터는 참여하는 클라이언트 노드에 전송되고(1단계), 클라이언트 노드는 " +"로컬 데이터에 대한 훈련을 받고(2단계), 업데이트된 모델을 서버에 " +"전송하고(3단계), 서버는 모델 업데이트를 집계하여 글로벌 모델의 새로운 버전을 " +"얻습니다(4단계)." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:284 msgid "" @@ -22748,6 +22816,11 @@ msgid "" "repeat this training process over and over again to eventually arrive at a " "fully trained model that performs well across the data of all client nodes." msgstr "" +"한 라운드의 반복에서 해당 반복에 참여하는 각 클라이언트 노드는 짧은 시간 " +"동안만 훈련합니다. 집계 단계(4단계) 이후 우리 모델이 관련된 모든 클라이언트 " +"노드의 모든 데이터에 대해 잠시 동안만 훈련되었음을 의미합니다. 그런 다음 " +"모든 클라이언트 노드의 데이터에서 잘 작동하는 완전히 훈련된 모델에 " +"도달하려면 이 훈련 과정을 계속 반복해야 합니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:289 msgid "" @@ -22758,6 +22831,12 @@ msgid "" "should participate in the next round? What's the best way to aggregate model " "updates? How can we handle failing client nodes (stragglers)?" msgstr "" +"축하합니다, 이제 연방 학습의 기초에 대해 알게 되었습니다. 물론 아직 논의해야 " +"할 내용이 많지만 이는 연방 학습의 축소판일 뿐입니다. 본 튜토리얼의 " +"후반부에는 좀 더 자세히 설명하겠습니다. 흥미로운 질문은 다음과 같습니다: " +"다음 라운드에 참여해야 할 가장 좋은 클라이언트 노드를 어떻게 선택할 수 " +"있을까요? 모델 업데이트를 집계하는 가장 좋은 방법은 무엇일까요? 실패한 " +"클라이언트 노드(낙오자)를 어떻게 처리할 수 있을까요?" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:294 msgid "" @@ -22767,10 +22846,14 @@ msgid "" "In fact, federated evaluation is an integral part of most federated learning " "systems." msgstr "" +"다양한 클라이언트 노드의 분산된 데이터에 대해 모델을 훈련할 수 있는 것처럼 " +"해당 데이터에 대한 모델을 평가하여 가치 있는 메트릭을 받을 수도 있습니다. " +"이를 연합 평가라고 하며 FE라고 약칭하기도 합니다. 사실 연합 평가는 대부분의 " +"연합 학습 시스템에서 필수적인 부분입니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:297 msgid "Federated analytics" -msgstr "" +msgstr "연방분석" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:299 msgid "" @@ -22782,6 +22865,13 @@ msgid "" "other privacy-enhancing technologies like secure aggregation to prevent the " "server from seeing the results submitted by individual client nodes." msgstr "" +"많은 경우 머신러닝은 데이터로부터 가치를 얻기 위한 필수 조건이 아닙니다. " +"데이터 분석을 통해 귀중한 통찰력을 얻을 수 있지만, 명확한 답변을 얻기에는 " +"데이터가 충분하지 않은 경우가 많습니다. 특정 유형의 건강 상태가 발생하는 " +"평균 연령은 몇 살입니까? 연합 분석을 사용하면 여러 클라이언트 노드에서 " +"이러한 쿼리를 실행할 수 있습니다. 서버가 단일 클라이언트 노드에서 제출한 " +"결과를 보지 못하도록 보안 애그리게이션과 같은 다른 프라이버시 향상 기술과 " +"함께 자주 사용됩니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:305 msgid "" @@ -22793,10 +22883,15 @@ msgid "" "identified. This technique can be considered an optimization that provides a " "quantifiable privacy protection measure." msgstr "" +"차등 프라이버시(DP)는 연합 학습의 맥락에서 종종 언급됩니다. 통계 데이터를 " +"분석하고 공유할 때 사용하는 프라이버시 보호 방식으로, 참가자 개인의 " +"프라이버시를 보장합니다. DP는 모델 업데이트에 통계적 노이즈를 추가하여 개별 " +"참가자의 정보를 구별하거나 재식별할 수 없도록 함으로써 이를 달성합니다. 이 " +"기술은 정량적 개인 정보 보호 조치를 제공하는 최적화라고 볼 수 있습니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:326 msgid "Flower" -msgstr "" +msgstr "Flower" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:328 msgid "" @@ -22808,28 +22903,37 @@ msgid "" "learning, analytics, and evaluation. It allows the user to federate any " "workload, any ML framework, and any programming language." msgstr "" +"연방 학습, 연방 평가 및 연방 분석은 머신 러닝 모델을 앞뒤로 이동하고 로컬 " +"데이터에 대해 훈련 및 평가한 다음 업데이트된 모델을 통합하기 위한 기본 " +"프레임워크가 필요합니다. Flower가 제공하는 인프라는 간단하고 확장 가능하며 " +"안전한 방식으로 이러한 목표를 달성합니다. 간단히 말해서, Flower는 연방 학습, " +"분석 및 평가를 위한 통합 접근 방식을 제공합니다. 이를 통해 사용자는 모든 " +"워크로드, ML 프레임워크 및 모든 프로그래밍 언어를 통합할 수 있습니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:334 msgid "|c00bf2750bc24d229737a0fe1395f0fc|" -msgstr "" +msgstr "|c00bf2750bc24d229737a0fe1395f0fc|" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:340 msgid "" "Flower federated learning server and client nodes (car, scooter, personal " "computer, roomba, and phone)" -msgstr "" +msgstr "Flower 연합 학습 서버 및 클라이언트 노드(자동차, 스쿠터, 개인용 컴퓨터, " +"룸바, 전화)" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:353 msgid "" "Congratulations, you just learned the basics of federated learning and how " "it relates to the classic (centralized) machine learning!" -msgstr "" +msgstr "축하합니다, 연방 학습의 기본 지식과 클래식 (중앙 집중식) 머신러닝과 어떻게 " +"관련되는지 배웠습니다!" #: ../../source/tutorial-series-what-is-federated-learning.ipynb:355 msgid "" "In the next part of this tutorial, we are going to build a first federated " "learning system with Flower." -msgstr "" +msgstr "이 튜토리얼의 다음 부분에서는 Flower와 함께 첫 번째 연방 학습 시스템을 " +"구축할 것입니다." #: ../../source/tutorial-series-what-is-federated-learning.ipynb:373 msgid "" @@ -22837,6 +22941,9 @@ msgid "" "framework/tutorial-get-started-with-flower-pytorch.html>`__ shows how to " "build a simple federated learning system with PyTorch and Flower." msgstr "" +"`Flower 연방 학습 튜토리얼- 1부 `__ PyTorch와 Flower를 사용하여 간단한 " +"연방 학습 시스템을 구축하는 방법을 보여줍니다." #~ msgid "" #~ "Currently, Flower provides two images, a ``base`` image and a "