• image
  • image
  • image
  • image
  • image

mtime

L

Świat IT jest w przededniu fundamentalnych zmian jak robić biznes.

Czy  jest to powód do obaw?

Dla niektórych tak, ale mimo to, są dobre powody dla tych zmian, a wiele z nich dotyczy tego, w jaki sposób dostarczać aplikacje i usługi szybciej niż działo się to kiedykolwiek wcześniej. Świat IT nie działa i nie działał źle, ale czasy się zmieniają, firmy się zmieniają i zmienia się świat wokół nas -i to jest  miejsce w którym jesteśmy teraz.

 

Nowy paradygmat biznesu – ekonomia idei – wymaga nieco innego nastawienia i nieco innej infrastruktury.

Żeby to wyjaśnić spójrzmy na dotychczasowy świat IT. Wszystkie udoskonalenia techniczne, technologiczne, narzędzia, których używamy do zarządzania infrastrukturą dziś, nie zmniejszają złożoności systemów pracujących w datacenter, ani też nie poprawiają efektywności w ich zarządzaniu. Biznes jako taki potrzebuje IT, można powiedzieć -na froncie, w poprawie efektywności, produktywności, redukcji kosztów i innowacyjności w tworzeniu nowych możliwości rozwoju, by być konkurencyjnym.

IT się stara, nie ma co do tego wątpliwości, stara się, by przestoje w dostępie do usług i aplikacji dążyły do zera (zero downtime), ciągła walka z infrastrukturą, zarządzaniem, gdzie stara infrastruktura spotyka się z nowymi wymaganiami – to jest właśnie ten punkt, który zaczyna zmieniać wiele organizacji.

Bo jak do tej pory  wiele organizacji postrzega IT jako centrum kosztów i IT działa jako, można by powiedzieć, funkcja wsparcia biznesu. I, jak w przypadku każdego kosztu, biznes stale szuka możliwości redukcji lub wyeliminowania go zupełnie.

I wszyscy wiemy, że w końcu dochodzi się do punktu, w którym taki paradygmat (redukcji kosztów) przestaje działać. Obniżając koszty – redukujemy usługi do niezbędnego minimum – a tym samym biznes zaczyna zarabiać tylko niezbędne minimum. Często w tym miejscu gęstość upakowania systemów w data center jest podstawowym tematem wszelkich rozmów, ponieważ rozbudowa, zwiększenie powierzchni czy w ogóle pojemności data center dla kolejnych systemów jest kosztowne z punktu widzenia kapitału i operacyjności. Standardowe podejście – to kompresja – czyli wirtualizacja, może hosting aplikacji w innych miejscach – ale to jest znane i stosowane podejście  – nic nowego. Podstawowym celem w tym przypadku jest wyprowadzenie kosztów możliwie najdalej poza biznes – ale jasne jest, że skróty i wyłącznie cięcie kosztów to nie jest całkiem rozsądna droga.

I chyba największą zagadką biznesu jest pytanie  – jak infrastruktura data center ma się zmienić, by żądania biznesu były realizowane bez czekania na to, aż infrastruktura się dopasuje, albo złapie wiatr w żagle.

Niektóre jednak cele stawiane przed IT – nie mogą ulec zmianie – IT musi dbać o stabilność, bezpieczeństwo danych i dostęp do nich. Te procesy często są, można powiedzieć, niekompatybilne z procesami innowacyjności i ciągłych zmian w infrastrukturze. I to raczej pozostanie mimo wszystkich innych zmian.

W obecnym świecie IT możemy wyróżnić cztery typy infrastruktury:

tradycyjna – standardowe wypełnianie szaf rackowych w data center sprzętem, okablowaniem, uruchamianie usług na platformach wirtualizacyjnych i fizycznych– najczęściej lokalnych (on-premise), całkowite zarządzanie i całkowite zarządzanie kosztami; mimo że tradycyjna infrastruktura, dobrze dobrana i zarządzana potrafi spełniać swoje zadania – to ma kilka wad -pierwszą z nich jest to, że pod niektóre typy usług potrzebne są inne rozwiązania fizyczne – dla przykład – wirtualizacja, systemy fizyczne i na przykład środowisko kontenerowe -każda z tych trzech architektur wymaga innych rozwiązań fizycznych i software’owych; zaspokajając takie wymagania – budujemy statyczne data center, które jest mało elastyczne o bardzo dużej złożoności;

infrastruktura konwergentna – ten typ infrastruktury jest lepiej adresowany niż infrastruktura tradycyjna, ale wymaga dużo większego przygotowania na etapie projektowania, by nie pominąć żadnego typu architektury, która ma być uruchamiana w takim środowisku, można założyć, że ten typ infrastruktury jest uzupełnieniem – bo w efekcie jest tym samym co infrastruktura tradycyjna, tyle, że kupowana w paczkach jako kompleksowe rozwiązanie;

infrastruktura hyperkonwergentna –   kolejnym krokiem w rozwoju infrastruktury, czy ewolucji infrastruktury jest hyperkonwergencja; w skrócie to nic innego jak skompresowanie zasobów obliczeniowych, zasobów pamięci dyskowej i sieci -w jedno rozwiązanie z wyeliminowaniem sieci SAN (Storage Area Network); zalety – pełna kompresja, kompaktowość, łatwość zarządzania,  elegancja rozwiązania i jego elastyczność w rozbudowanie – zwiększając pojemność systemu dodajemy moc obliczeniową i pojemność przestrzeni dyskowej w jednym kroku – wygodne, ale nie zawsze konieczne; wady – tylko wirtualizacja, infrastruktura hyperkonwergentna nie pozwoli nam na uruchomienie na swoich platformach systemów wymagających np. fizycznego serwera (to żądanie w obecnym świecie może być nadmierne, ale niektóre systemy licencyjne mogą spowodować taki wymóg); wygoda może być jednocześnie wadą – dodając moc obliczeniową dodajemy jednocześnie przestrzeń dyskową, nie zawsze jest to wymagane, dostajemy coś czego nie potrzebujemy; kolejna rzecz -brak wsparcia dla infrastruktury fizycznej – dodanie zasobów z sieci SAN jest problematyczne -technicznie możliwe, ale tracimy elastyczność i sens hyperkonwergencji;

i ostatni element to

– infrastruktura komponowalna – sprzęt i oprogramowanie zaprojektowane jako jedność, elastyczność zarządzania, programowo definiowane wszystko (software-defined everything); przystosowane do pracy z wirtualizacją, jako platforma fizyczna i platforma dla konteneryzacji; w przypadku takiego rozwiązania nie ma potrzeby ograniczać się do wybranych rozwiązań czy architektur, które chcemy zastosować we własnej organizacji – infrastruktura komponowalna daje możliwość uruchomienia niemal każdego systemu, którego potrzebujemy