Tworzenie fal: Dynatrace Perform 2024 zapoczątkowuje nową erę obserwowalności

Dynatrace powitała w tym tygodniu tysiące osobistych i wirtualnych uczestników dorocznej konferencji Perform w Las Vegas. Motywem przewodnim było hasło “Make Waves” – oddające zarówno zmiany tektoniczne zachodzące w różnych branżach, jak i możliwości dla organizacji w zakresie wywierania wpływu na transformację.

Zgodnie z najnowocześniejszym charakterem firmy, Dynatrace ogłosiło kilka ważnych informacji, które pozwolą przedsiębiorstwom stawić czoła niektórym z najbardziej palących wyzwań związanych ze złożonością chmury, przyjęciem sztucznej inteligencji, zagrożeniami bezpieczeństwa i zobowiązaniami w zakresie zrównoważonego rozwoju. Przyjrzyjmy się najważniejszym wydarzeniom.

Zmniejszenie śladu węglowego IT

W obliczu postępujących zmian klimatycznych, redukcja emisji dwutlenku węgla stała się imperatywem biznesowym. Infrastruktury IT są jednak niezwykle złożone, co utrudnia przedsiębiorstwom ilościowe określenie i optymalizację ich śladu węglowego na dużą skalę.

Dynatrace Carbon Impact został stworzony, aby sprostać temu wyzwaniu. Przekłada bardzo szczegółowe dane obserwacyjne, takie jak wskaźniki wykorzystania mocy obliczeniowej, na dokładny wpływ na zrównoważony rozwój w odniesieniu do centrum danych, regionów dostawców chmury, klastrów hostów, a nawet poszczególnych obciążeń.

Zespoły mogą natychmiast zidentyfikować “gorące punkty” reprezentujące najwyższe straty energii i emisje w celu skoncentrowania się na wzroście wydajności. Przykładowo, Carbon Impact może ujawnić przeciążenie zduplikowanymi mikrousługami, obniżając wskaźniki wykorzystania krytycznych zasobów aplikacji.

Sugeruje również precyzyjne działania optymalizacyjne w oparciu o architekturę chmury i zależności, takie jak eliminacja rażąco niewykorzystanych instancji. Co więcej, jego ciągłe monitorowanie zapewnia nadzór nad wskaźnikami KPI zrównoważonego rozwoju po podjęciu działań, takich jak inicjatywy związane z dostosowaniem rozmiaru lub ulepszenia w zakresie zielonego kodowania.

Według klienta Dynatrace, Lloyds Banking Group, którego celem jest zmniejszenie emisji dwutlenku węgla o 75% do 2030 r., możliwości te zapewniają “widoczność i wpływ na ekosystemy IT potrzebne do optymalizacji wydajności infrastruktury”.

Ponieważ firmy dążą do osiągnięcia celów środowiskowych w chmurze, Carbon Impact sprawia, że obserwowalność jest kluczowym czynnikiem umożliwiającym osiągnięcie tych celów.

Obserwowalność dla sztucznej inteligencji

Sztuczna inteligencja niesie ze sobą ogromną obietnicę, ale w miarę jak wdrażanie złożonych technologii, takich jak duże modele językowe i generatywna sztuczna inteligencja, przyspiesza, pojawiają się nowe wyzwania. obserwowalność pojawiają się wyzwania.

Te nowoczesne obciążenia sztucznej inteligencji mogą zachowywać się nieoczekiwanie, przenosić zastrzeżone adresy IP w modelach, utrudniając widoczność i działać jako czarne skrzynki niezdolne do śledzenia awarii. Ich modele konsumpcji na żądanie również sprawiają, że wykorzystanie zasobów jest trudne do przewidzenia i kontrolowania.

Dynatrace AI Observability zostało stworzone z myślą o pokonaniu tych przeszkód. Instrumentuje cały stos AI, w tym infrastrukturę, taką jak klastry GPU, potoki ML, systemy zarządzania modelami i aplikacje AI.

Ta pełna obserwowalność w połączeniu z modelami wyjaśniającymi Davis AI zapewnia precyzyjny wgląd w pochodzenie i zachowanie systemów AI. Zespoły mogą wskazać podstawowe przyczyny degradacji modelu oraz określić ilościowo dokładność.

W szczególności w przypadku dużych modeli językowych, takich jak GPT, Dynatrace śledzi wzorce zapytań i zużycie tokenów, aby zapobiec przekroczeniu limitów. W miarę jak modele iteracyjnie uczą się na podstawie nowych danych, monitorują one szkodliwy dryf. Takie zarządzanie zapewnia niezawodne i opłacalne działanie modeli w skali przedsiębiorstwa.

W środowisku wymagającym odpowiedzialnego i bezpiecznego wdrażania sztucznej inteligencji w różnych branżach, obserwowalność nie jest już opcjonalna. Dynatrace wyposaża firmy w narzędzia, które pozwalają im bez obaw wprowadzać innowacje w zakresie generatywnej sztucznej inteligencji i uczenia maszynowego.

Prowadzenie analityki i automatyzacji na dużą skalę

Nowoczesne środowiska natywne dla chmury generują ogromne strumienie danych, którymi przedsiębiorstwom trudno jest sprawnie zarządzać, nie mówiąc już o wydobywaniu z nich wartości. Ograniczona przepustowość i pamięć masowa potęgują ten problem, podczas gdy potoki obserwowalności ad hoc i wady jakości danych przyprawiają praktyków o ból głowy.

Dynatrace OpenPipeline w elegancki sposób rozwiązuje te wyzwania. Oferuje on pojedynczą, wysoce wydajną ścieżkę do kierowania całej obserwowalności, bezpieczeństwa i telemetrii biznesowej z dynamicznych obciążeń w chmurze do napędzających wartość platform analitycznych i automatyzacji, takich jak Dynatrace.

Wykorzystując zgłoszone do opatentowania algorytmy przyspieszonego przetwarzania w połączeniu z natychmiastowymi możliwościami zapytań, OpenPipeline może oceniać oszałamiające ilości danych w locie do 5-10 razy szybciej niż alternatywy, aby odblokować przypadki użycia analityki w czasie rzeczywistym, które wcześniej były nieosiągalne. Nie ma potrzeby stosowania niezgrabnych przybliżeń próbkowania.

Wzbogaca również telemetrię o pełny kontekst topologii w celu uzyskania precyzyjnych odpowiedzi, jednocześnie umożliwiając zespołom płynne filtrowanie, kierowanie i przekształcanie danych po ich pozyskaniu w oparciu o określone potrzeby analityczne lub zgodności. OpenPipeline pomaga nawet zmniejszyć liczbę zduplikowanych strumieni nawet o 30%, aby zminimalizować zapotrzebowanie na przepustowość i wymaganą pojemność magazynu danych.

Dla programistów, SRE i zespołów inżynierii danych zmagających się z tworzeniem niestandardowych potoków obsługujących ogromne, niezliczone źródła danych w dzisiejszych heterogenicznych stosach korporacyjnych, OpenPipeline zapewnia prostotę i wydajność, pozwalając bardziej skupić się na wydobywaniu spostrzeżeń.

Zapewnienie jakości analityki i automatyzacji

Podejmowanie decyzji lub uruchamianie krytycznych przepływów pracy w oparciu o złe dane może oznaczać katastrofę dla organizacji. Jednak utrzymanie nieskazitelnej jakości danych staje się wykładniczo trudniejsze wraz ze wzrostem skali i złożoności chmury.

Na szczęście dla użytkowników platformy Dynatrace, Obserwowalność danych pomaga wyeliminować te obawy. Wykorzystuje Davis AI i inne moduły Dynatrace do automatycznego śledzenia kluczowych wskaźników kondycji telemetrii przy pozyskiwaniu, w tym świeżości, wzorców objętości, wartości odstających dystrybucji, a nawet zmian schematu.

Wszelkie anomalie zagrażające dalszej analizie i wierności automatyzacji wyzwalają alerty do zbadania, co ułatwia śledzenie pochodzenia w celu ustalenia źródeł źródłowych nawet w połączonych ze sobą potokach danych. Zespoły oszczędzają niezliczone godziny i nie muszą już ręcznie ustalać, skąd pochodzą defekty danych.

Ale poza reaktywnym zarządzaniem, Dynatrace Data Observability również proaktywnie optymalizuje analitykę poprzez ciągłą ocenę przydatności i wykorzystania źródeł danych. Zespoły mogą śmiało wycofać nieużywane strumienie marnujące zasoby lub zidentyfikować nowe źródła do włączenia w celu uzyskania lepszych spostrzeżeń i modeli.

Dla programistów budujących niestandardowe integracje danych i architektów zarządzających krytycznymi dla biznesu analizami, wolne od zmartwień dane oznaczają bardziej efektywne dostarczanie wartości i innowacji dla biznesu. Obserwowalność danych daje pewność, że zarówno dane historyczne, jak i dane w czasie rzeczywistym napędzające kluczową automatyzację są w pełni godne zaufania.

Droga do doskonałości oprogramowania

Dynatrace Perform 2024 wskazał, w jaki sposób sztuczna inteligencja i automatyzacja przekształcą inżynierię wydajności. Założyciel i CTO Bernd Greifeneder doskonale to podsumował: “Zbudowaliśmy Dynatrace, aby pomóc klientom w automatyzacji, ponieważ w ten sposób można dojść do perfekcji oprogramowania. Te postępy dają zespołom odpowiedzi i zarządzanie, aby automatycznie zapobiegać problemom w porównaniu z ręcznymi poprawkami”.

Uczestnicy Dynatrace Perform są wyraźnie podekscytowani kolejną zmianą paradygmatu obserwowalności.