Aby rozpocząć, kliknij przycisk Akceptuj poniżej, aby wyświetlić panel zarządzania plikami cookie. Następnie naciśnij lub kliknij przycisk Personalizacja, aby włączyć funkcję czatu, a następnie Zapisz.
Prof. Sally Eaves jest przewodniczącą organizacji Cyber Trust i starszym doradcą ds. polityki w fundacji Global Foundation of Cyber Studies and Research. Uznawana za „orędowniczkę etycznego wykorzystania technologii” jest pierwszą laureatką nagrody Frontier Technology and Social Impact Award, przyznawanej przez Organizację Narodów Zjednoczonych. Pełniąca w przeszłości funkcję dyrektora ds. technologii, a obecnie profesora akademickiego w dziedzinie zaawansowanych technologii oraz doradcy ds. globalnej strategii zastosowania nowych technologii, Sally Eaves jest nagradzaną międzynarodową autorką, organizatorką, mówczynią i liderką opinii w dziedzinie transformacji cyfrowej (AI, 5G, usługi w chmurze, blockchain, cyberbezpieczeństwo, zarządzanie, IoT, danologia) w kontekście kultury, umiejętności, różnorodności, równości i integracji oraz zrównoważonego rozwoju i wpływu na społeczeństwo.
Sally aktywnie kształci i wspiera jako mentor nowe pokolenie talentów w dziedzinie technologii – założyła fundację Aspirational Futures, działającą na rzecz wzmocnienia integracji, różnorodności i równości w obszarze edukacji i technologii. Wkrótce ukaże się także jej najnowsza książka pt. „Tech For Good”. Sally jest konsekwentnie doceniana za globalne dokonania w przestrzeni technologicznej przez wiodące organizacje, takie jak Onalytica, i wymieniana w pierwszej dziesiątce najbardziej wpływowych osób na świecie w wielu dziedzinach – poczynając od sztucznej inteligencji, poprzez technologię 5G, a kończąc na zrównoważonym rozwoju.
Dane są obecnie podstawowym narzędziem podczas „domowej izolacji”
W tych niezwykłych czasach powszechnej niepewności zachodzą szybkie i występujące na dużą skalę zmiany w sposobie pracy, nauki i życia. Przygotowanie na to, co niespodziewane, jest wpisane w DNA branży centrów danych, których „niewidzialna” działalność jest obecnie w większości krajów na świecie klasyfikowana jako „usługi o kluczowym znaczeniu”. Dotykając organizacji niezależnie od ich wielkości, w praktycznie każdej branży, koronawirus wpłynął na ciągłość działania całej gospodarki. Stawienie czoła zmianom i wyzwaniom poprzez optymalizację istniejących usług, przy jednoczesnym uwzględnieniu nowych wymagań, stało się dla centrów danych strategiczną i operacyjną koniecznością. Występują dwa kluczowe czynniki stymulujące ogromny wzrost popytu. Po pierwsze jest to zapotrzebowanie na moc obliczeniową, wynikające z przejścia wielu firm i instytucji na pracę zdalną. Infrastruktura cyfrowa nigdy nie była tak ważna dla światowej gospodarki. Związane z tym wykorzystanie aplikacji cyfrowych na potrzeby połączeń wideo, telemedycyny, e-handlu i e-nauczania, a także w celach rozrywkowych, ponieważ wszyscy spędzamy więcej czasu w domu, powoduje wzrost zapotrzebowania na duże ilości danych.
Wykorzystanie przepustowości centrów danych bije nowe rekordy
Najnowsza publikacja firmy Kingston{{Footnote.N58295}} dotycząca rozwoju centrów danych wskazywała na „nienasycone” zapotrzebowanie na dane związane z rozwojem technologii 5G, Internetu rzeczy i Edge Computing. W kontekście koronawirusa sprawiło to, że 11 marca 2020 r. dostawca usług centrum danych, Deutsche Commercial Internet Exchange, ustanowił we Frankfurcie nowy rekord świata{{Footnote.N58296}} — przepustowość danych przekraczającą 9,1 terabajta na sekundę. Firma Vodafone poinformowała o 50% zwiększeniu transmisji danych{{Footnote.N58297}} na niektórych rynkach przy znaczących skokach wykorzystania przez dostawców usług internetowych. Rzeczywiście, np. firma British Telecom zniosła limity danych dla domowych łączy szerokopasmowych{{Footnote.N58298}}, aby ułatwić zaspokajanie potrzeb związanych z pracą, nauką i codziennym życiem. Jednak choć monitorowanie „kondycji Internetu” wskazuje na tendencję wzrostową przerw w realizacji usług{{Footnote.N58299}}, nie osiąga ona poziomu odpowiadającego bezprecedensowemu wzrostowi ruchu. Ponadto, mimo obecnego i prognozowanego z roku na rok wzrostu ruchu i obciążeń w centrach danych, warto zauważyć, że Międzynarodowa Agencja Energetyczna (IEA) przewiduje spadek globalnego zapotrzebowanie na energię w centrach danych{{Footnote.N58300}}. Wynika to zarówno z praktyk konsolidacyjnych, jak i wydajnościowych (zwłaszcza w odniesieniu do systemów chłodzenia), a także faktu, że niektóre nowe hiperskalowe centra danych mają być zasilane w 100% energią ze źródeł odnawialnych.
Systemy obliczeniowe o dużej wydajności wspierają badania na rzecz zwalczania wirusa
Drugim kluczowym czynnikiem jest potrzeba szybkości i mocy obliczeniowej — i tu właśnie pojawiają się systemy obliczeniowe o dużej wydajności (ang. High Performance Computing, HPC). Badania nad szczepionkami i leczeniem generują duże zbiory danych. Instytucje badawcze i firmy farmaceutyczne po raz pierwszy wykorzystują na dużą skalę systemy HPC do przeprowadzania symulacji i obliczeń w takich dziedzinach, jak epidemiologia i bioinformatyka. Może pomóc to radykalnie skrócić czas potrzebny na opracowanie nowych leków.
Coronavirus High-Performance Computing Consortium{{Footnote.N58301}} zrzesza liderów z obszarów technologii, administracji i środowisk akademickich, udostępniając ponad 330 petaflopów mocy obliczeniowej, 775 000 rdzeni procesorów i 34 000 kart graficznych. W celu lepszego zrozumienia wirusa i opracowania metod leczenia, które mogą być wykorzystane do stworzenia potencjalnych szczepionek, możliwe jest teraz wykonanie niesamowitej liczby 330 trylionów operacji zmiennoprzecinkowych na sekundę. To także doskonały przykład przedkładania współpracy nad konkurencję przez takie firmy, jak IBM, Amazon, Microsoft, HPE i Google.
Choć centra danych są często niewidoczne, w istocie są „generatorami mocy” dla przetwarzania w chmurze i „łącznikami” Internetu, które zaspokajają potrójną potrzebę: większej prędkości, większej elastyczności i optymalnej dostępności. Operatorzy szybko zareagowali, aby zapewnić systemom odporność i przeciwdziałać ryzyku przestojów i przerw w świadczeniu usług dla różnych grup użytkowników. Według szacunków firmy Gartner średni koszt przestoju IT wynosi ok. 5600 USD na minutę, nic zatem dziwnego, że jest to wiodący problem w zarządzaniu systemami IT. W taki sam sposób konsumenci starali się gromadzić żywność i artykuły gospodarstwa domowego, czego symbolicznym przykładem były masowe zakupy papieru toaletowego{{Footnote.N58302}} obserwowane na całym świecie. Na podobnej zasadzie klienci centrów danych starali się zabezpieczyć dodatkowe zasoby mocy obliczeniowej i przepustowości, aby sprostać szybko rosnącym potrzebom i zapewnić ciągłość działania.
Wirtualne zarządzanie „wirtualną” rzeczywistością
Przejrzystość ma zasadnicze znaczenie zarówno dla zapewnienia bezpieczeństwa, jak i budowania zaufania, dlatego operatorzy centrów danych publicznie dzielą się informacjami dotyczącymi kryteriów zarządzania, a w razie potrzeby nadawania priorytetu nowym usługom w chmurze w celu zabezpieczenia operacji o krytycznym znaczeniu{{Footnote.N58303}}. Obecni klienci również otrzymali znaczące wsparcie — większość dostawców wprowadziła krótkoterminowe rozwiązania, takie jak zawieszenie naliczania dodatkowych opłat za przekroczenie limitów przepustowości. W przypadku wielu klientów z sektora MŚP, u których wystąpiło nieoczekiwane i nieplanowane zapotrzebowanie na ruch sieciowy i przepustowość, zdolność do zwiększenia obciążeń systemu i sieci ponad zadeklarowane wartości, do poziomu maksymalnej przepustowości portów, bez ponoszenia karnych opłat, może mieć w tym burzliwym czasie znaczenie dla zapewnienia rentowności.
Jednak umożliwienie zachowania ciągłości działania klientów i partnerów wymaga zapewnienia jej również dla samych centrów danych, zwłaszcza w kontekście ochrony pracowników, partnerów i dostawców. Jednym z kluczowych obszarów, które to potwierdzają, jest poziom dzielenia się wiedzą w tym sektorze, szczególnie jeśli chodzi o procedury BHP, a także kwestie dotyczące zasobów ludzkich i łańcucha dostaw. W grę wchodzi także współpraca z rządem. Na przykład brytyjski Departament ds. technologii cyfrowej, kultury, mediów i sportu (DCMS) powołał zespół ds. zabezpieczenia infrastruktury danych, aby zapewnić uwzględnienie działalności centrów danych przy podejmowaniu kluczowych decyzji politycznych.
Co najważniejsze, oznaczało to ograniczenie dróg infekcji i konieczność radzenie sobie z rzeczywistością izolacji obiektów. Wymagało to wprowadzenia ograniczeń dostępu i harmonogramu dyżurów z zachowaniem zasad dystansu społecznego. Pojawiły także problemy związane z dostępnością — przede wszystkim na skutek zmniejszenia się liczby pracowników na miejscu, a także nieobecności kluczowego personelu z powodu choroby lub izolacji.
Wskazówki dotyczące obiektów o krytycznym znaczeniu są szczególnie ważne dla ograniczenia ryzyka, dlatego kluczowe są możliwości zdalnego zarządzania. Połączenie technologii czujników, usług pomocy technicznej w rozwiązywaniu problemów, takich jak „Smart Hands”{{Footnote.N58304}}, a także monitorowania systemów w kluczowych obszarach wydajności (zwłaszcza związanych z dystrybucją zasilania i temperaturą), umożliwia podniesienie poziomu zdalnej kontroli w czasie rzeczywistym. Pozwala to uzyskać zdolność do zaawansowanej analizy danych i przewidywania potencjalnych incydentów. W istocie oprócz potrzeby zaspokojenia wymagań dotyczących wydajności obliczeniowej, szybkości, niezawodności i mocy koronawirus wysunął na pierwszy plan pytanie, do jakiego stopnia można efektywnie zdalnie zarządzać centrum danych. Co więcej, w obszarach związanych z pracą, nauką, komunikacją i rozrywką — a także lepszym zrozumieniem mechanizmów działania wirusa i zapewnieniem wsparcia w leczeniu — rola centrów danych przesunęła się teraz wyraźnie na centralny plan.
#KingstonIsWithYou
Zapytaj eksperta
Firma Kingston oferuje możliwość uzyskania niezależnej opinii pozwalającej określić, czy istniejąca lub projektowana konfiguracja jest odpowiednia dla danej organizacji.
Korporacyjne dyski SSD
Doradzamy, jakie korzyści przyniosą korporacyjne dyski SSD w środowisku pamięci masowej Twojej organizacji, i który z nich jest najlepszym rozwiązaniem w przypadku obciążeń wymagających wysokiej wydajności IOPS (operacje wejścia/wyjścia na sekundę) przy losowym odczycie i zapisie.
Doradzamy i przedstawiamy korzyści płynące z konfiguracji Twojego serwera pod kątem optymalnej wydajności i pojemności. Eksperci firmy Kingston posiadają odpowiednią wiedzę, dzięki której pomogą CiCi w modernizacji pamięci.
Od zdjęć, przez postprodukcję i kodowanie, po dystrybucję w centrach danych – rozwiązania SSD i RAM umożliwiają strumieniową transmisję obrazu i dźwięku w świecie multimediów i rozrywki OTT.
Dołącz do ekspertów z branży, aby porozmawiać o tym, w jaki sposób partnerzy technologiczni, tacy jak firma Kingston, wspierają zrównoważony rozwój przedsiębiorstw.
Przejście na standard NVMe wymaga pełnego przeglądu systemu przez specjalistów w dziedzinie architektury IT, aby zapewnić nadmiarowość na każdym poziomie systemu.
Na potrzeby tej publikacji zapytaliśmy ekspertów z branży, jakie korzyści niesie sztuczna inteligencja, jak sprzyja zwiększeniu zużycia danych, a także jak można przygotować swoją organizację na oferowane przez nią możliwości.
Testowanie dysku SSD powinno umożliwić ocenę jego rzeczywistej wytrzymałości oraz zmian parametrów opóźnień i IOPS w warunkach sekwencyjnego i losowego odczytu lub zapisu.
Testy dysków SSD przeznaczonych do serwerów korporacyjnych należy przeprowadzać z wykorzystaniem rzeczywistego sprzętu, systemu operacyjnego i danych. Wyjaśniamy dlaczego.
Rob May, ekspert branżowy w dziedzinie usług zarządzanych, wyjaśnia, w jaki sposób modernizacja pamięci operacyjnej i masowej może pomóc firmom korzystającym z pracy zdalnej.
Uchroń się przed wyborem niewłaściwego dysku SSD do swojego serwera. Nietrafny wybór oznacza wyższy koszt posiadania. Naucz się wybierać właściwe dyski SSD.
Co przyniesie 2021 rok w dziedzinie technologii i dominujących trendów? Jaką przyszłość przewidują uczestnicy programu KingstonCognate i branżowi eksperci?
Dowiedz się, dlaczego przyszłość biznesu zależy od technologii SDS opartej na dyskach SSD oraz jak te nośniki sprawdzają się w rozwiązaniach przechowywania danych zdefiniowanego przez oprogramowanie.
Centra danych powinny korzystać z serwerowych dysków SSD. Mają one wiele zalet w porównaniu z dyskami przeznaczonymi do zastosowań klienckich, a ich ceny spadły.
Dowiedz się, w jaki sposób firma Hardwareluxx zyskała możliwość zarządzania rosnącym ruchem sieciowym dzięki zastosowaniu dysków SSD DC500M firmy Kingston.
Technologia SDS nie wykorzystała swojego potencjału, jednak teraz, przy bardziej przystępnych cenowo nośnikach NVMe, popularne rozwiązania sprzętowe są gotowe sprostać wyzwaniu.
Wybór odpowiedniego dysku SSD do serwera jest ważny, ponieważ serwerowe dyski SSD, w odróżnieniu od dysków klienckich (do komputera stacjonarnego lub laptopa), są zoptymalizowane pod kątem działania na przewidywalnym poziomie latencji. Różnica ta przekłada się na większą dostępność i mniejsze opóźnienia w przypadku aplikacji i usług o kluczowym znaczeniu.
Firma Kingston dostarczyła kompatybilną pamięć, która pomogła osiągnąć cele wydajnościowe serwerów i3D.net, wydłużając tym samym czas eksploatacji posiadanego sprzętu.
Biała księga pokazuje, w jaki sposób dyski SSD z serii Data Center DC500 firmy Kingston pozwalają zmniejszyć ogólne koszty kapitałowe oraz koszty licencji o 39%.
Dyski SSD Kingston Data Center serii 500 (DC500R / DC500M) – jednolitość i przewidywalność latencji (czasu odpowiedzi) oraz wydajności IOPS (liczba operacji wejścia/wyjścia na sekundę).
Dzięki poziomowi usług, jakości, skalowalności i elastyczności ekonomicznych rozwiązań firmy Kingston firma Aruba zauważyła polepszenie jakości usług oferowanych swoim klientom.
Rygorystyczne testy to nasza podstawa, aby dostarczyć najbardziej niezawodne produkty na rynku.
Wszystkie nasze produkty przechodzą drobiazgowe testy podczas każdego etapu produkcji. Te testy pozwalają zapewnić kontrolę jakości w całym procesie produkcji.