Analizy Big Data w chmurze

  Z nami Big Data będzie „śmigać”
Bardziej niż jakiekolwiek inne zadania obliczeniowe, Big Data i związane z nimi obciążenia wymagają odpowiedniej mocy obliczeniowej. Wąskie gardła mogą ograniczać użyteczność nawet dobrze przemyślanych systemów, a w szerszej skali zdolność do udostępniania prawidłowo skonfigurowanych zasobów może mieć znaczny wpływ na ogólną wydajność systemu. Właśnie dlatego coraz więcej klientów używa usług CloudSigma do przetwarzania wielkich zbiorów danych..



Infrastruktura o wysokiej wydajności


Analizy Big Data i inne prace analizy podobnie wymagające dużej mocy obliczeniowej są wykonywane tak szybko, jak prędko działają najwolniejsze komponenty ich systemów. Pojedyncze ograniczenia mogą spowodować, że wydajne i dobrze działające środowisko będzie działać w sposób daleki od optymalnego. Krytyczne znaczenie ma zatem korzystanie z platformy chmurowej, która może spełnić bardzo szeroki zakres wymagań dotyczących wydajności, w tym bardzo wysoką wydajność w wielu aspektach infrastruktury.


  O co pytać

  • Jaką prędkość sieci wewnętrznej pomiędzy maszynami wirtualnymi mogę uzyskać w ramach waszej chmury?

  Na co zwracać uwagę

  • Prędkość transmisji sieciowej, szczególnie w przypadku głównych węzłów, może być źródłem istotnych ograniczeń. Dysponowanie siecią wewnętrzną, która umożliwia transmisję danych z wielogigabitowymi prędkościami, zwiększa skalowalność i umożliwia uzyskiwanie większej wydajności ogólnej.

  Nasze rozwiązanie

  • Nasza chmura dysponuje podwójnym łączem 10 GE do każdego węzła obliczeniowego. Użytkownik może z łatwością przesyłać dane z prędkością 4-5 Gb/s i więcej ze standardowego serwera chmurowego CloudSigma. Nie oferujemy instancji HPC, ponieważ wszystkie nasze serwery, we wszystkich rozmiarach, mogą osiągnąć wydajność na poziomie HPC.


  • Jakie profile wydajności storage są dostępne?
  • Wymagania analiz Big Data łączą – jak sama nazwa wskazuje – duże zestawy danych oraz intensywne przetwarzanie. Wymaga to ekonomicznych opcji pamięci masowej (storage) o pojemności mierzonej w petabajtach, a jednocześnie bardzo szybkiego storage obsługującego bieżące prace obliczeniowe. Poszukaj chmury, która umożliwia łatwe łączenie tych zróżnicowanych potrzeb w zakresie storage.
  • Oferujemy zarówno dyski SSD, jak i możliwość rozszerzania pamięci masowej za pomocą dysków magnetycznych. Klienci mogą tworzyć dyski, określać ich rozmiary, a następnie je montować i łączyć w swoich serwerach chmurowych odpowiednio do potrzeb. W opcji SSD oferujemy 1000 operacji wejścia-wyjścia (IOPS) na wątek zapisu, w cenie zaledwie 0,13 $ / GB / 30 dni, przy maksymalnym rozmiarze dysku 5 TB. Umożliwiająca rozbudowę pojemności opcja dysków magnetycznych kosztuje zaledwie 0,08 $ / GB / 30 dni, a maksymalna pojemność dysku to 100 TB. W naszej chmurze można bardzo łatwo zarządzać zarówno wymaganiami dotyczącymi wysokiej wydajności, jak i wielkością dużych zbiorów danych.


  • Czy wystawiacie zestawy instrukcji procesorów do swoich serwerów chmurowych?
  • Wydajność współczesnych procesorów jest w znacznym stopniu uzależniona od zestawów instrukcji CPU do optymalizowania wielu operacji. Wystawienie tych zestawów instrukcji do serwerów chmurowych nie jest zawsze dostępne. Warto znaleźć chmurę, która może udostępniać zestawy instrukcji, aby korzystać z możliwości procesorów z roku 2015, a nie z roku 1985!
  • Umożliwiamy klientom wybór pomiędzy standardowym emulowanym procesorem (w celu uzyskania kompatybilności) a wystawieniem modelu procesora macierzystego. To drugie rozwiązanie umożliwia wystawienie pełnego zestawu instrukcji CPU do serwerów w chmurze w celu uzyskania optymalnej wydajności.


“„Dzięki swobodnemu wyborowi opcji wysokiej wydajności, ekonomicznego storage i wysokowydajnego storage SSD, które cechuje elastyczność i dostępność na żądanie, możemy szybko i ekonomicznie udostępniać naszą platformę, której celem jest wykorzystanie danych z obserwacji Ziemi do ochrony życia i mienia przed zagrożeniami jakimi są trzęsienia ziemi i aktywność wulkaniczna.”Julio Carreira, Capacity Manager, European Space Agency

Skalowanie i automatyzacja


Użytkownicy, którzy korzystają z przetwarzania wsadowego, będą mieli bardzo zróżnicowane w czasie zapotrzebowanie na zasoby. Ponadto przetwarzanie na dużą skalę wymaga stosowania zautomatyzowanego systemu, który ułatwia zarządzanie. Podstawowe znaczenie ma wybór chmury, która szybko reaguje na potrzeby w zakresie infrastruktury, umożliwia pełną automatyzację i dysponuje rozsądnym systemem naliczenia opłat, który śledzi zużycie zasobów na przestrzeni czasu.


  O co pytać

  • Ile czasu zajmuje przydzielenie kluczowych zasobów takich jak serwery, napędy dysków i zasoby sieciowe?

  Na co zwracać uwagę

  • Utworzenie dużej infrastruktury na żądanie jest możliwe tylko w środowisku, które obsługuje szybkie przydzielanie zasobów. Szukaj krótkich czasów realizacji zamówień na zasoby.

  Nasze rozwiązanie

  • Wszystkie zasoby są dostarczane natychmiast po złożeniu zlecenia. W przypadku tworzenia sieci i dysków oznacza to 2-5 s, a w przypadku nowych serwerów na ekran logowania czeka się krócej niż 30s.


  • Czy wasze API obsługuje operacje zbiorcze i i jest w pełni funkcjonalne?
  • Ważne by wiedzieć, co można zautomatyzować na danej platformie chmurowej, a czego nie można, a do tego potrzebne jest poznanie zakresu funkcji API. Podobnie istotną zaletą jest możliwość obsługi operacji zbiorczych, jeżeli pracuje się z setkami lub tysiącami serwerów.
  • Jesteśmy dumni z naszego sprawdzonego w boju API. Nasze API oferuje nie tylko pełny zakres funkcji, umożliwiając całkowitą automatyzację, ale także udostępnia szereg operacji zbiorczych do szybkiego rozbudowania infrastruktury. Potrzebujesz 200 nowych węzłów obliczeniowych? Wystarczy dostarczyć nam wzorcowy obraz serwera, który sklonujemy, uruchamiając wszystkie dwieście instancji przy użyciu pojedynczego polecenia API.. Będziemy nawet informować na bieżąco o postępach pracy. Dowiedz się więcej o naszych integracjach sterowników i bibliotek API.


  • W jaki sposób rozliczane jest zmienne zapotrzebowanie na infrastrukturę związane z przetwarzaniem wsadowym?
  • Klientów z obszaru Big Data i HPC cechuje zazwyczaj bardzo zróżnicowane wykorzystywanie zasobów na przestrzeni czasu ze względu na różnorodność zadań wykonywanych w ramach przetwarzania wsadowego. W rezultacie najkorzystniejsza dla nich jest taka chmura, która umożliwia zakup tego, co jest potrzebne, kiedy jest potrzebne.
  • Tworząc system billingowy naszej chmury, przyjęliśmy podejście użytkowe. Oznacza to, że w danym czasie oceniamy zbiorcze zużycie każdego zasobu z osobne. Najbardziej atrakcyjne jest to, że można kupić usługi w abonamencie lub płacić za zużycie zasobów udostępnianych na żądanie (burst). Można więc mieć abonament na kluczowe wykorzystanie zasobów, a w razie potrzeby w dowolnym momencie zwiększyć wydajność, korzystając z opcji burst. Nie trzeba więc wybierać między rezerwacją zasobów a ich dostępnością na żądanie. Tak jest o wiele prościej.


„Poziom elastyczności usługi CloudSigma wykracza daleko poza efektywność zakupu zasobów. Kiedy podjęliśmy decyzję o migracji z Rackspace do CloudSigma, na początku spodziewaliśmy się okresu przystosowawczego, ponieważ podejście CloudSigma różni się od podejścia większości usługodawców. Jednak CloudSigma bardzo nam to ułatwiła. Wielką pomocą była również możliwość wdrożenia w ich chmurze preferowanego przez nas systemu operacyjnego i oprogramowania.”Amit Chaudhary, współzałożyciel, Gresp

Elastyczność platformy


Nasi użytkownicy Big Data i HPC mają jasno określone wymagania w zakresie przetwarzania danych. Aby wdrożenia były optymalne i zakończone sukcesem, niezbędna jest platforma, która umożliwia klientom precyzyjne wskazywanie swoich wymagań, , szczególnie w przypadku prac szeroko zakrojonych.

  O co pytać

  • Jaki mam wybór systemów operacyjnych i aplikacji, korzystając z waszej chmury?

  Na co zwracać uwagę

  • Niektóre chmury nakładają ograniczenia odnośnie do używanego w nich oprogramowania. Oznacza to przekazanie dostawcy chmury strategicznej kontroli nad decyzjami dotyczącymi technologii i może powodować problemy w przyszłości, jeśli jeszcze nie teraz.

  Nasze rozwiązanie

  • Oferujemy otwartą platformę. Chociaż dla wygody udostępniamy różne preinstalowane systemy, klienci mogą zainstalować lub wgrać dowolny system operacyjny dla procesorów x86/x64 bez potrzeby dokonywania zmian. Są to między innymi BSD, Linux and Windows based systems. Cokolwiek zechcesz uruchomić, nasza chmura może to obsłużyć.


  • Czy mogę zmienić ustawienia CPU i hypervisora, żeby dostosować je do obciążenia moimi zadaniami obliczeniowymi?
  • W zwirtualizowanym środowisku można zmieniać bardzo wiele ustawień, by uzyskać lepsze dopasowanie do specyficznego obciążenia. Może to skutkować nawet 50-procentowym wzrostem wydajności w porównaniu z ustawieniami standardowymi. Im więcej indywidualnego dostosowania, tym lepiej.
  • Udostępniamy wszystko: od topologii NUMA (znakomite rozwiązanie dla dużych maszyn wirtualnych) przez określanie rozmiarów wirtualnych rdzeni (tworzenie mnóstwa wątków do przetwarzania równoległego) po ustawienia timera hypervisora (szczególnie istotne w środowiskach Windows). Jako użytkownik CloudSigma siedzisz w fotelu kierowcy – Ty decydujesz. Możesz uzyskać najlepszy na rynku stosunek ceny do wydajności, w miarę rozbudowy swojego systemu.


  • Na ile elastyczne jest wybieranie rozmiaru serwera?
  • Obciążenia typu Big Data i HPC często wymagają dobierania rozmiarów serwerów chmurowych spoza typowego zakresu. To może być serwer z obszerną pamięcią RAM, serwer z wielkim storage lub po prostu bardzo duży węzeł obliczeniowy.
  • Oferujemy całkowicie swobodny dobór zasobów (bez pakietyzacji), nie narzucając określonych rozmiarów serwerów. Można tworzyć serwery z dokładnie taką liczbą procesorów i ilością RAM, jakie są potrzebne, i łączyć je z różnymi storage, według potrzeb. Nazywamy to „idealnym zaopatrzeniem”. Oferujemy również szeroki zakres rozmiaru każdego zasobu, aby nasi klienci mogli być pewni, że dysponują wystarczającymi zasobami.

„Zwróciliśmy się do CloudSigma, ponieważ potrzebowaliśmy ekonomicznej i elastycznej infrastruktury chmurowej o wysokiej wydajności do hostingu naszych wymagających systemów wyszukiwania semantycznego. Zdolność CloudSigma do szybkiego i perfekcyjnego dostosowywania infrastruktury do zróżnicowanych wymagań jest idealna dla każdego przedsięwzięcia z kategorii Big Data.”Mario Juric, CTO, Unsilo

High Availability i równoważenie obciążenia (Load Balancing)


Możliwość właściwego oddzielenia kluczowych komponentów wdrożenia, aby nie dopuścić do powstawania pojedynczych punktów awarii, jest ważna dla utrzymania dostępności usługi, a także dla rozkładania obciążenia na całą infrastrukturę, aby uniknąć przeciążeń w punktach, które mogą stać się wąskimi gardłami. Każdy, kto poszukuje dostawcy usług chmurowych, powinien zwrócić uwagę, czy dana chmura udostępnia użytkownikom narzędzia do uzyskiwania High Availability usług i równoważenia obciążenia.


  O co pytać

  • W jaki sposób zapewniacie separację kluczowych komponentów infrastruktury klienta?

  Na co zwracać uwagę

  • Przeniesienie infrastruktury do chmury ma wiele zalet, ale wówczas pojawia się zagrożenie, że gdy straci się ją z oczu, mogą zacząć powstawać pojedyncze punkty awarii. Funkcje, które umożliwiają odseparowanie infrastruktury, mogą być bardzo przydatne do tworzenia prawdziwie stabilnych wdrożeń infrastruktury chmurowej.

  Nasze rozwiązanie

  • WUmożliwiamy całkowitą separację infrastruktury na odrębnych systemach. Przy tworzeniu lub klonowaniu dysku lub serwera użytkownik może określić, jakiej innej infrastruktury należy unikać. Ponadto wyraźnie wskazujemy infrastrukturę umieszczoną na współużytkowanych systemach. Dzięki temu nasi klienci mogą budować bardziej stabilne usługi.


  • Czy stosujecie redundancję (nadmiarowość) systemów używanych do świadczenia usług chmurowych?
  • Mogą występować znaczne różnice w jakości i redundancji systemów używanych przez różnych dostawców usług chmurowych. Porównując oferty dostawców, należy to uwzględnić przy kalkulowaniu kosztów.
  • Do kolokowania naszej chmury wybieramy wyłącznie centra danych klasy Tier III lub wyższej . Poza tym korzystamy z usług wielu różnych operatorów sieciowych klasy Tier 1, aby zapewnić dostępność sieci. Przełączanie w naszej chmurze jest w pełni redundantne. Dzięki temu mamy SLA (service level agreement) z dostępnością 100% i gwarancją opóźnień w sieci poniżej 1 ms.


  • Czy oferujecie równoważenie obciążenia i automatyczne skalowanie?
  • Dysponowanie równoważeniem obciążenia oferowanym jako usługa może przynieść dużą oszczędność czasu przy sprawdzonych produktach. Dodatkowo zastosowanie automatycznego skalowania ułatwia wzmacnianie klastrów wg wymagań klienta w czasie rzeczywistym.
  • Oferujemy wielopoziomową usługę równoważenia obciążenia, dając klientom należyty wybór w odpowiedniej cenie. Opcje obejmują zaawansowane funkcje równoważenia obciążenia i możliwości w pełni automatycznego skalowania. Poziom podstawowy jest dostępny w cenie od zaledwie 50 $ miesięcznie.


STWÓRZ SERWER W CHMURZE W MNIEJ NIŻ 30 SEKUND

Skorzystaj z 7-dniowego bezpłatnego okresu próbnego bez podawania numeru karty kredytowej albo wypróbuj natychmiastowy dostęp do konta demo przez najbliższą godzinę…

ZACZNIJ JUŻ TERAZ