Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Fixing typos in polish locale and fixed a few typos in en WIP #211

Draft
wants to merge 2 commits into
base: master
Choose a base branch
from
Draft
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
36 changes: 28 additions & 8 deletions _i18n/en.yml
Original file line number Diff line number Diff line change
Expand Up @@ -87,7 +87,7 @@ sidebar:
- pure_functions
- closures
- applying
- title: Gotchas
- title: "Gotchas"
url: gotchas
submenus:
- surprising
Expand Down Expand Up @@ -127,7 +127,7 @@ sidebar:
- dynamic_dispatch
- dynamic_method
- dynamic_proxies
- title: Solid Principles
- title: "Solid Principles"
url: solid_principles
submenus:
- single
Expand All @@ -137,7 +137,7 @@ sidebar:
- di
- title: "Become Ruby Meister"
url: ruby_meister
- title: Threads
- title: "Threads"
url: threads
submenus:
- green
Expand All @@ -163,19 +163,39 @@ pages:
worst: "Worst"
sorting:
title: "Sorting"
description: "A sorting algorithm is an algorithm that puts elements of a list in a certain order. The most-used orders are numerical order and lexicographical order. Efficient sorting is important for optimizing the use of other algorithms (such as search and merge algorithms) which require input data to be in sorted lists; it is also often useful for canonicalizing data and for producing human-readable output."
description: "A sorting algorithm is an algorithm that puts elements of a list in a certain order. The most-used orders are numerical order and
lexicographical order. Efficient sorting is important for optimizing the use of other algorithms (such as search and merge algorithms)
which require input data to be in sorted lists; it is also often useful for canonicalizing data and for producing human-readable output."
bubble_sort:
title: "Bubble sort"
description: "Bubble sort has many of the same properties as insertion sort, but has slightly higher overhead. In the case of nearly sorted data, bubble sort takes <span class=\"code-inline time\">O(n)</span>, but requires at least 2 passes through the data (whereas insertion sort requires something more like 1 pass)."
description: "Bubble sort has many of the same properties as insertion sort, but has slightly higher overhead.
In the case of nearly sorted data, bubble sort takes <span class=\"code-inline time\">O(n)</span>,
but requires at least 2 passes through the data (whereas insertion sort requires something more like 1 pass)."
insertion_sort:
title: "Insertion sort"
description: "Although it is one of the elementary sorting algorithms with <span class=\"code-inline\">O(n<sup>2</sup>)</span> worst-case time, insertion sort is the algorithm of choice either when the data is nearly sorted (because it is adaptive) or when the problem size is small (because it has low overhead). For these reasons, and because it is also stable, insertion sort is often used as the recursive base case (when the problem size is small) for higher overhead divide-and-conquer sorting algorithms, such as merge sort or quick sort."
description: "Although it is one of the elementary sorting algorithms with <span class=\"code-inline\">O(n<sup>2</sup>)</span> worst-case time,
insertion sort is the algorithm of choice either when the data is nearly sorted (because it is adaptive) or when the problem size is small
(because it has low overhead). For these reasons, and because it is also stable, insertion sort is often used as the recursive base case
(when the problem size is small) for higher overhead divide-and-conquer sorting algorithms, such as merge sort or quick sort."
selection_sort:
title: "Selection Sort"
description: "From the comparison presented here, one might conclude that selection sort should never be used. It does not adapt to the data in any way (notice that the four animations above run in lockstep), so its runtime is always quadratic. However, selection sort has the property of minimizing the number of swaps. In applications where the cost of swapping items is high, selection sort very well may be the algorithm of choice."
description: "From the comparison presented here, one might conclude that selection sort should never be used. It does not adapt to
the data in any way (notice that the four animations above run in lockstep), so its runtime is always quadratic. However, selection
sort has the property of minimizing the number of swaps. In applications where the cost of swapping items is high, selection sort very
well may be the algorithm of choice."
shell_sort:
title: "Shell sort"
description: "The worst-case time complexity of shell sort depends on the increment sequence. For the increments 1 4 13 40 121 ...,which is what is used here, the time complexity is <span class=\"code-inline\">O(n<sup><sup>3</sup>&frasl;<sub>2</sub></sup>)</span>. For other increments, time complexity is known to be <span class=\"code-inline\">O(n<sup><sup>4</sup>&frasl;<sub>3</sub></sup>)</span> and even <span class=\"code-inline\">O(n·lg<sub>2</sub>(n))</span>. Neither tight upper bounds on time complexity nor the best increment sequence is known. Because shell sort is based on insertion sort, shell sort inherits insertion sort’s adaptive properties. The adaptation is not as dramatic because shell sort requires one pass through the data for each increment, but it is significant. For the increment sequence shown above, there are <span class=\"code-inline\">log<sub>3</sub>(n)</span> increments, so the time complexity for nearly sorted data is <span class=\"code-inline\">O(n·log<sub>3</sub>(n))</span>. Because of its low overhead, relatively simple implementation, adaptive properties, and sub-quadratic time complexity, shell sort may be a viable alternative to the <span class=\"code-inline\">O(n·lg(n))</span> sorting algorithms for some applications when the data to be sorted is not very large."
description: "The worst-case time complexity of shell sort depends on the increment sequence. For the increments 1 4 13 40 121
...,which is what is used here, the time complexity is <span class=\"code-inline\">O(n<sup><sup>3</sup>&frasl;<sub>2</sub></sup>)</span>.
For other increments, time complexity is known to be <span class=\"code-inline\">O(n<sup><sup>4</sup>&frasl;<sub>3</sub></sup>)</span>
and even <span class=\"code-inline\">O(n·lg<sub>2</sub>(n))</span>. Neither tight upper bounds on time complexity nor the best increment
sequence is known. Because shell sort is based on insertion sort, shell sort inherits insertion sort’s adaptive properties.
The adaptation is not as dramatic because shell sort requires one pass through the data for each increment, but it is significant.
For the increment sequence shown above, there are <span class=\"code-inline\">log<sub>3</sub>(n)</span>
increments, so the time complexity for nearly sorted data is <span class=\"code-inline\">O(n·log<sub>3</sub>(n))</span>.
Because of its low overhead, relatively simple implementation, adaptive properties, and sub-quadratic time complexity,
shell sort may be a viable alternative to the <span class=\"code-inline\">O(n·lg(n))</span> sorting algorithms for some applications when
the data to be sorted is not very large."
heap_sort:
title: "Heap sort"
description: "Heapsort is simple to implement, performs an <span class=\"code-inline\">O(n·lg(n))</span> in-place sort, but is not stable. The first loop, the <span class=\"code-inline\">Θ(n)</span> “heapify” phase, puts the array into heap order. The second loop, the <span class=\"code-inline\">O(n·lg(n))</span> “sort down” phase, repeatedly extracts the maximum and restores heap order. The sink function is written recursively for clarity. Thus, as shown, the code requires <span class=\"code-inline\">Θ(lg(n))</span> space for the recursive call stack. However, the tail recursion in sink() is easily converted to iteration, which yields the <span class=\"code-inline\">O(1)</span> space bound. Both phases are slightly adaptive, though not in any particularly useful manner. In the nearly sorted case, the heapify phase destroys the original order. In the reversed case, the heapify phase is as fast as possible since the array starts in heap order, but then the sort down phase is typical. In the few unique keys case, there is some speedup but not as much as in shell sort or 3-way quicksort."
Expand Down
96 changes: 48 additions & 48 deletions _i18n/pl.yml
Original file line number Diff line number Diff line change
@@ -1,19 +1,19 @@
head:
title: BetterDocs
title: "Podstawy Ruby"
metatags:
description: Podstawowe programowanie z przykładami rubinów i referencjami. Obejmuje
wątki, zasady SOLID, wzorce projektowe, struktury danych, algorytmy.
keywords: Lepsze dokumenty, Ruby, Fundamentals, podstawy programowania Ruby. Ruby
gotchas, programowanie funkcjonalne, metaprogramowanie, wątki, solidne podstawy
Rubiego z przykładami, wzorce projektowe Rubiego z przykładami, algorytmy Rubiego
z przykładami, struktury danych Rubiego z przykładami.
description: "Podstawowe programowanie z przykładami ruby i referencjami. Obejmuje
wątki, zasady SOLID, wzorce projektowe, struktury danych, algorytmy."
keywords: "Lepsze dokumenty, Ruby, Fundamentals, podstawy programowania Ruby. Ruby
gotchas, programowanie funkcjonalne, metaprogramowanie, wątki, zasady SOLID
Ruby z przykładami, wzorce projektowe Ruby z przykładami, algorytmy Ruby
z przykładami, struktury danych Ruby z przykładami."
content:
menu:
open: Otwórz menu
close: Zamknij menu
open: "Otwórz menu"
close: "Zamknij menu"

sidebar:
- title: Algorytmy
- title: "Algorytmy"
url: algorithms
submenus:
- key: sorting
Expand All @@ -29,7 +29,7 @@ sidebar:
submenus:
- binary_search
- knuth_moriss_pratt_search
- title: Struktury danych
- title: "Struktury danych"
url: data_structures
submenus:
- key: axioms
Expand All @@ -54,7 +54,7 @@ sidebar:
- b_tree
- binary_heap

- title: Wzorce projektowe
- title: "Wzorce projektowe"
url: design_patterns
submenus:
- key: creational
Expand Down Expand Up @@ -84,13 +84,13 @@ sidebar:
- strategy
- template
- visitor
- title: Programowanie funkcjonalne
- title: "Programowanie funkcjonalne"
url: functional_programming
submenus:
- pure_functions
- closures
- applying
- title: Gotchas
- title: "Gotchas"
url: gotchas
submenus:
- surprising
Expand Down Expand Up @@ -122,25 +122,25 @@ sidebar:
- private
- braces
- module
- title: Pytania do wywiadu
- title: "Pytania do rozmów kwalifikacyjnych"
url: interview_questions
- title: Meta programowania
- title: "Meta programowanie"
url: meta_programming
submenus:
- dynamic_dispatch
- dynamic_method
- dynamic_proxies
- title: Solidne zasady
- title: "Zasady solid"
url: solid_principles
submenus:
- single
- open_close
- liskov
- segregation
- segregation
- di
- title: Zostań Ruby Meister
- title: "Zostań Ruby Meister"
url: ruby_meister
- title: Wątki
- title: "Wątki"
url: threads
submenus:
- green
Expand All @@ -151,44 +151,44 @@ sidebar:
- config

pages:
wiki: Czytaj wiki
credits: Kredyty
wiki: "Czytaj wiki"
credits: "Credits"
page404:
title: Strona nie znaleziona :(
description: Żądana strona nie została znaleziona.
title: "Strona nie znaleziona :("
description: "Żądana strona nie została znaleziona."
page500:
title: "Something was going wrong :("
title: "Coś poszło nie tak :("
algorithms:
title: Algorytmy
title: "Algorytmy"
complexity:
best: Najlepiej
average: Średni
worst: Najgorszy
best: "Najlepiej"
average: "Średnio"
worst: "Najgorzej"
sorting:
title: Sortowanie
description: Algorytm sortowania to algorytm, który umieszcza elementy listy w
określonej kolejności. Najczęściej używane zamówienia to porządek liczbowy i
title: "Sortowanie"
description: "Algorytm sortowania to algorytm, który umieszcza elementy listy w
określonej kolejności. Najczęściej stosowane to porządek liczbowy i
porządek leksykograficzny. Efektywne sortowanie jest ważne dla optymalizacji
wykorzystania innych algorytmów (takich jak algorytmy wyszukiwania i scalania),
które wymagają danych wejściowych do posortowania list; jest również często
przydatna do kanonalizacji danych i do generowania danych czytelnych dla człowieka.
przydatna do kanonalizacji danych i do generowania danych czytelnych dla człowieka."
bubble_sort:
title: Sortowanie bąbelkowe
description: Sortowanie bąbelkowe ma wiele takich samych właściwości jak sortowanie
wstawiania, ale ma nieco wyższy narzut. W przypadku prawie posortowanych danych
sortowanie bąbelkowe zajmuje <span class="code-inline time">O(n)</span> ,
ale wymaga co najmniej 2 przebiegów przez dane (podczas sortowania wstawiania
wymaga czegoś więcej niż 1 podanie).
title: "Sortowanie bąbelkowe"
description: "Sortowanie bąbelkowe ma wiele takich samych właściwości jak sortowanie
przez wstawianie, ale ma nieco wyższy koszt eksploatacji. W przypadku prawie posortowanych danych
sortowanie bąbelkowe zajmuje <span class=\"code-inline time\">O(n)</span>,
ale wymaga co najmniej dwukrotnego przekazania danych (podczas gdy sortowanie przez wstawianie
wymaga raczej jednego przekazu)."
insertion_sort:
title: Sortowanie przez wstawianie
description: Chociaż jest to jeden z podstawowych algorytmów sortowania o najgorszym
możliwym czasie <span class="code-inline">O(n<sup>2</sup>)</span> , sortowanie
wtrąceniowe jest algorytmem z wyboru, gdy dane są prawie posortowane (ponieważ
title: "Sortowanie przez wstawianie"
description: "Chociaż jest to jeden z podstawowych algorytmów sortowania o najgorszym
możliwym czasie <span class=\"code-inline\">O(n<sup>2</sup>)</span>, sortowanie
przez wstawianie jest podstawowym wyborem, gdy dane są prawie posortowane (ponieważ
są adaptacyjne) lub gdy rozmiar problemu jest mały (ponieważ ma niski narzut).
Z tych powodów, a także dlatego, że jest również stabilny, sortowanie wstawiania
Z tych powodów, a także dlatego, że jest również stabilny, sortowanie przez wstawianie
jest często używane jako rekurencyjny podstawowy przypadek (gdy rozmiar problemu
jest mały) dla wyższych algorytmów sortowania dziel i przegrywaj, takich jak
sortowanie scalone lub sortowanie szybkie.
jest mały) dla wyższych algorytmów sortowania dziel i rządź, takich jak
sortowanie scalone lub sortowanie szybkie."
selection_sort:
title: Wybór Sortuj
description: Z przedstawionego tu porównania można wyciągnąć wniosek, że nigdy
Expand All @@ -199,7 +199,7 @@ pages:
wymiany przedmiotów jest wysoki, wybór sortowania bardzo dobrze może być wybranym
algorytmem.
shell_sort:
title: Sortowanie za pomocą powłoki
title: "Sortowanie Shella"
description: Najgorsza złożoność czasu sortowania powłoki zależy od sekwencji
przyrostu. Dla odstępach co 1 4 13 40 121 ..., która jest, co jest tutaj używany,
złożoność czas <span class="code-inline">O(n<sup><sup>3</sup>/<sub>2</sub></sup>)</span>
Expand All @@ -219,7 +219,7 @@ pages:
class="code-inline">O(n·lg(n))</span> dla niektórych aplikacji, gdy dane
do posortowania są niezbyt duże.
heap_sort:
title: Sortowanie sterty
title: "Sortowanie stogowe"
description: Sortowanie sterty jest prosty w implementacji, wykonuje sortowanie w miejscu
<span class="code-inline">O(n·lg(n))</span> , ale nie jest stabilny. Pierwsza
pętla, faza <span class="code-inline">Θ(n)</span> &quot;scalify&quot;, umieszcza
Expand Down
16 changes: 8 additions & 8 deletions npm-shrinkwrap.json

Some generated files are not rendered by default. Learn more about how customized files appear on GitHub.