• Agile,  Praca,  Zarządzanie

    Nigdy nie będzie dobrze

    Postanowiłem się dziś podzielić obserwacją tak oczywistą, ale najwyraźniej nie na tyle by była ona powszechnym rozumieniem. Otóż: nigdy nie będzie dość szybkich zespołów developerskich.

    Dlaczego? Ano dlatego, że wymyślanie potrzeb oraz funkcji w oprogramowaniu, które mogłyby je zaspokajać jest bardzo szybkie. Sam pomysł to krótki błysk w duszy i przebieg impulsów po neuronach – jest! Eureka! Zapisanie go, ew. przedyskutowanie to kwestia godzin. Ale realizacja może trwać dni, tygodnie, miesiące nawet. Jeśli dodamy do tego dość typową sytuację, kiedy wymyślających (zwanych elegancko „interesariuszami”) jest istotnie więcej od implementujących widać wyraźnie, że jest niemożliwością doprowadzenie do sytuacji, w której każdy pomysł („wymaganie”) jest realizowane bez oczekiwania. Z tego właśnie powodu praktycznie zawsze wymagania czekają a ich lista rośnie.

    [Opisując to językiem procesów tworzenie oprogramowania to – na wysokim poziomie ogólności –  etap, na którym jednostki pracy są wytwarzane bardzo szybko, po którym następuje etap przetwarzający je dużo wolniej.]

    Jeśli chwilę pomyśleć rzecz jest – jak to już napisałem wyżej – oczywista. Prosta logika mówi, że nie może być inaczej. A jednak mimo to w praktycznie wszystkich organizacjach, z którymi miałem do czynienia, jest ogromny nacisk na to, żeby zespoły działały szybciej. Tak jakby organizacje chciały osiągnąć to marzenie, idealny stan, w którym powiedzą sobie „mamy już wystarczająco szybki development”. Realizuje się to głównie przez odruch zatrudniania (stąd taka popularność tematu „skalowania Agile” – jak się już tych ludzi zatrudni jakoś trzeba ogarniać współpracę pomiędzy nimi).

    I w sumie nie ma w tym nic złego gdyby nie to, że nie widać by co najmniej taka sama energia i zaangażowanie były poświęcone na dobre wybieranie tego, co będzie realizowane. A to jest rzecz absolutnie najważniejsza. Mając ograniczony zasób jakim są możliwości i energia developmentu należy przede wszystkim zadbać o to, by nie marnować go na rzeczy o niskiej wartości. Każde wymaganie, każdy pomysł powinno się trzy razy obracać w palcach, oglądać pod światło i porównywać z innymi żeby mieć absolutną pewność, że w danej chwili nie ma naprawdę nic ważniejszego co developerzy mogliby zrobić.

    To jest kolejna oczywistość, dużo bardziej zresztą uniwersalna niż tworzenie oprogramowania – wszędzie ważna jest koncentracja. Niby wszyscy o tym wiedzą, ale w 9 przypadkach na 10 kiedy np. w ramach warsztatu zwizualizujemy kierownictwu ile mają otwartych inicjatyw i projektów to jest wielkie zdziwienie. Po czym oczywiście jedno z pierwszych pytań jest takie: co zrobić, żeby development szybciej pracował? Może zatrudnijmy więcej programistów?

    Myślę, że lekarstwem na to może być powtarzanie w kółko oczywistości, od której zacząłem ten wpis: „nigdy nie będzie wystarczająco szybkich zespołów”. I dodawanie „zatem zastanówmy się jak najlepiej wykorzystać to, co mamy”.

    Jak to konkretnie zrobić? Ano stosując empiryzm, nie pakując się w wielkie inicjatywy bez zweryfikowania małym (i tanim) eksperymentem, że warto, stosując biznesowe metryki (np. kwantyfikację celów biznesowych) i weryfikowanie na ile dana planowana funkcjonalność je poprawia – i tak dalej. Dużo narzędzi i praktyk wykraczających poza zakres tego artykuliku (o części z nich mówimy na szkoleniu dla Product Ownerów, o innych na różnych warsztatach). Czyli robiąc wszystko co się da, żeby właśnie jak najlepiej wybierać rzeczy, które trafią do realizacji.

    Ale to są narzędzia, a najważniejsza jest świadomość, że w ten sposób osiągniemy więcej niż koncentrując się na powiększaniu zespołów. Teraz już ją masz, więc do dzieła! Bo choć nigdy nie będzie dobrze, to jednak może być lepiej. 🙂

  • Agile,  Zarządzanie

    Lokalne optymalizacje

    Na każdą organizację można spojrzeć jako na system, który przetwarza pewne sygnały wejściowe na jakieś produkty wyjściowe. W tym sensie organizacja jest zbiorem procesów, mniej lub bardziej powtarzalnych, w których przepływają pewne zlecenia. W przemyśle mają one charakter materialny, namacalny. W pracy intelektualnej (mylonej czasem z biurową) są najczęściej tylko pojęciami takimi jak pojedyncza sprawa, zlecenie, „ficzer” itp. Umownie możemy je nazwać „jednostkami pracy”.

    Tak patrząc na dowolną firmę o jej sprawności świadczą dwa najważniejsze parametry: przepustowość (liczba jednostek pracy w jednostce czasu, które firma przetwarza) oraz średni czas przetwarzania (czyli średni czas jaki upływa od rozpoczęcia do zakończenia pracy nad jednostką pracy – oczywiście patrząc z perspektywy odbiorcy). Efektywność to funkcja kosztu – innymi słowy ile kosztuje przetworzenie jednostki pracy – ale z pewnością ma ona związek ze średnim czasem przetwarzania, przeciętnie im szybciej coś jest przetwarzane tym to przetwarzanie powinno być tańsze.

    Teoretycznie kierujący organizacją powinni tak działać, by organizacja tak szybko jak to w danej domenie działalności jest możliwe przetwarzała jednostki pracy od wejścia do ukończenia.

    Wyobraźmy sobie teraz organizację jako proces składający się z wyróżnialnych kroków wykonywanych przez konkretnych ludzi i z użyciem konkretnych zasobów. Każdy z tych kroków działa sobie jakoś, w swoim tempie, a średni czas przetwarzania całości wynosi X. Co stanie się, jeśli krok C raptownie przyspieszy, a więc stanie się dużo bardziej wydajny od innych? Czy sumaryczny czas przetwarzania wzrośnie czy spadnie?

    hiper uproszczona organizacja
    Wbrew pozorom średni czas przetwarzania wzrośnie. Dlaczego? Bo wyniki pracy kroku C zaczną się odkładać w coraz bardziej rosnącej kolejce przed krokiem D, który nie przyspieszył. Co się podzieje z przepustowością? Pozostanie taka sama, ograniczona możliwościami kroku D.

    Taki scenariusz to właśnie lokalna optymalizacja – tylko część całego łańcucha albo procesu usprawniła się bez zmiany w pozostałych. Stan całości organizacji nie uległ poprawie, ale przeciwnie, pogorszeniu.

    Jakie to ma przełożenie na nasz świat? Takie mianowicie, że w bardzo wielu miejscach Scrum (czy Kanban) zastosowany w zespołach jest właśnie taką lokalną optymalizacją. Reszta organizacji się nie zmienia, nie zmieniają się zwłaszcza te procesy, które zajmują się wprowadzaniem zmian do użytku. W efekcie co prawda zespoły wytwarzają często wydawalny produkt, działają szybciej, efektywniej – ale korzyści nie widać, bo wydania nadal są tylko trzy razy do roku (i jest na to mnóstwo wspaniałych uzasadnień).
    
    Przy tym lokalna optymalizacja w wytarzaniu oprogramowania jest bardziej zdradliwa niż w fabryce. W przetwarzaniu fizycznych elementów jest ona bowiem widoczna namacalnie. Po pierwsze kolejki wytworzone przez krok, który nagle przyspieszył mają charakter widocznego stosu elementów czy półproduktów, których przechowywanie dodatkowo kosztuje. Po drugie jednak widać wyraźnie, że poprzednie kroki nie nadążają co prowadzi do przestojów na etapie, który przyspieszył, bo zaczyna mu brakować elementów na wejściu (z kroków A i B).

    Tymczasem w naszej dziedzinie ten drugi efekt jest rzadziej widoczny, bo zawsze jest pełno pomysłów na ficzery i zmiany, które można wprowadzić do prodktu. Co więcej, jeśli zmiany naprawdę najbardziej wartościowe zostaną załatwione można na lata utonąć w mało wartościowych pomysłach, co jest niestety odruchem w wielu organizacjach zamiast otwartego przyznania, że to, co najważniejsze jest już zrobione i w sumie nie ma uzasadnienia dla utrzymywania dużych zespołów developerskich. Mogłoby to się stać widoczne, gdyby śledzono wartość dostarczaną w funkcji czasu starając się ją jakoś obiektywnie mierzyć, ale z mojej praktyki wynika, że jest to niezmiernie rzadkie.

    Podsumowując: przyspieszanie i usprawnianie działania samych zespołów – w czym wiele organizacji celuje w ramach tzw. „wdrożeń Scrum” – poprawia wskaźniki w IT, ale nie przynosi spodziewanych korzyści dopóki pozostaje lokalną optymalizacją a reszta organizacji pozostanie bez zmian. Niestety, nie jest to widoczne bo zawsze jest pełno czekających na jakąś zmianę w produkcie i powstaje złudzenie, że to wciąż za mało tempa i pojemności w developmencie.

  • Praca,  Zarządzanie

    Co jest pracą a co nie?

    Podobno kiedyś, dawno temu na Wojskowej Akademii Technicznej w Warszawie był sobie pewien naukowiec. Miał on taki zwyczaj, że kiedy rozwiązywał jakiś trudny problem, to chodził tam i z powrotem po pokoju – ruch pomagał mu myśleć. Legenda głosi, że do WAT trafił nowy komendant i traf chciał, że z okna jego gabinetu było świetnie widać okno pokoju owego naukowca znajdujące się po drugiej stronie podwórza. Nie raz więc komendant obserwował go chodzącego intensywnie po pokoju. W końcu nie wytrzymał, wezwał go do siebie i powiedział mu tak:

    Proszę pana, widzę jak chodzi pan stale tam i z powrotem po pokoju. Tak być nie może. My płacimy panu za to, żeby pan pracował naukowo a nie chodził po pokoju. Proszę siedzieć i uczciwie pracować przez osiem godzin. Do widzenia!

    Nie wiem czy anegdota ta jest prawdziwa, ale dość dobrze ilustruje ona absurdalność wąskiego postrzegania pracy – zwłaszcza intelektualnej – jako czegoś co da się sprowadzić do konkretnej czynności. Niestety, takie postrzeganie jest powszechne – a przy tym jak wszelkie błędne przekonania – prowadzi do podejmowania bezsensownych działań.

    Źródłem tego problemu jest niewątpliwie fakt, że przez większą część historii ludzkości większość pracy wykonywanej przez większość ludzi to była praca fizyczna. Przy pracy fizycznej jest dość łatwo określić kiedy się pracuje a kiedy nie. Odruchowo zatem to na pracy fizycznej zbudowane są intuicje, którymi się posługujemy mówiąc o pracy. Ba! Są one nawet zawarte w samym języku (np. „pracować w pocie czoła”).

    Pojawienie się prostych maszyn w wieku 18 i 19 niewiele zmieniło – człowiek najczęściej dostarczał zręczności i inteligentnego sterowania, którego maszyny te nie miały. Praca zatem tym różniła się od pracy fizycznej, że polegała na obsłudze jakiegoś urządzenia. Wszystkie wywiedzione z pracy fizycznej intuicje co do tego kiedy pracownik pracuje a kiedy nie nadal pozostawały prawidłowe. Pracownik pracował kiedy stał przy maszynie i coś robił, kiedy od niej odchodził to nie pracował. Zatem, czas przez niego na pracy, a więc obsłudze jakiejś maszyny, mógł być dobrą miarą produktywności.

    Na początku zeszłego wieku Taylor dodał do tego naukową systematyzację jeszcze skuteczniej wbijając nam do głów takie dwie zasadnicze intuicje:

    • praca to obsługiwanie jakiejś maszyny lub wykonywanie jakiejś czynności,
    • czas pracy jest dobrą miarą pracy gdyż kiedy pracownik nie obsługuje maszyny lub nie wykonuje czynności to nie przynosi wartości – a więc nie pracuje.

    Zaowocowało to pomiarem czasu pracy i optymalizacją zarówno tego czasu jak i czynności czy wręcz ruchów pracownika tak, żeby ów czas pracy był maksymalnie dobrze wykorzystany. Ponieważ kolejną cechą prostej pracy są proste miary jej rezultatów – sztuki wyprodukowanych części, metry czy kilogramy materiału, litry płynu itp. – łatwo było określić wydajność jako stosunek właśnie takiej miary ilościowej do czasu spędzanego przez pracownika na pracy. Jak już ją można było zmierzyć to można było obserwować wpływ różnych działań (np. skrócenia czasu pracy do 8h) na tak rozumianą wydajność.

    W przemyśle był to krok do przodu, jednak cały ten mechanizm kompletnie się załamuje przy pracy intelektualnej. Weźmy na przykład osobę programującą (często etykietowaną jako „programista”). Stwierdzenie, że programista pracuje kiedy wytwarza kod jest tak absurdalne, że aż ciężko uwierzyć, że może być traktowane poważnie. A jednak sami programiści często tak właśnie postrzegają swoją pracę uważając za czas efektywnej pracy tylko momenty kiedy siedzą przed ekranem i klepią kod pozostając w mitycznym stanie „flow”. I – logicznie – ludzie widzący tak swoją pracę postrzegają wtedy wszelkie inne wydarzenia w pracy – na przykład spotkania – jako „nie-pracę”, a więc marnotrawstwo i bezsens. Podobnie, niestety, myśli wielu kierowników.

    Tymczasem kod jest tylko efektem najważniejszego procesu w pracy intelektualnej jakim jest myślenie. Narzędziem tej pracy jest mózg, który programista zasadniczo ma ze sobą cały czas. Czy jeśli jadąc autobusem do domu zastanawia się jaki algorytm przyłożyć do problemu to pracuje czy nie? Zewnętrznie nie – nie siedzi przy komputerze, w ogóle nie przebywa w biurze, efektem nie jest choćby pół linijki kodu. Faktycznie jednak pracuje.

    Idźmy dalej. Jeśli nasz programista nie pracuje w pojedynkę, to musi jakoś uzgadniać rozwiązania i to, co będzie robione z innymi – czy komunikacja z nimi to „nie-praca”? Czyż zatem czas spędzony np. w zespole przed tablicą na omawianiu rozwiązań i towarzyszące temu zwykle tworzenie na owej tablicy typowych dla tego procesu bazgrołów – schematów, zapisków – nie jest również integralną częścią pracy? Jest nią oczywiście, nawet pomimo tego, że efektów tej pracy nie da się zmierzyć punktami funkcyjnymi.

    A przecież to tylko pierwszy „poziom błędu” – jeśli tak można powiedzieć – bo przecież zespół programistów może stworzyć piękny, elegancki kod, który jednak będzie całkowicie bezwartościowy. Kiedy tak będzie? Ano kiedy ów kod nie będzie przydatny dla użytkownika czy klienta. W takiej sytuacji cały czas spędzony na jego tworzeniu można uznać za całkowicie zmarnotrawiony. Jak widać kluczowe znaczenie ma komunikowanie się programisty z klientem, które niewątpliwie jest również integralnym elementem pracy, bo bez tego może się ona okazać całkowicie pozbawiona sensu. Zatem na przykład poświęcone temu dokładnie spotkanie zwane „Przeglądem Sprintu” jest integralną częścią pracy a nie „nie-pracą” albo przerwą w pracy. Istotą jego jest bowiem badanie czy wytworzony produkt ma sens dla odbiorców. I choć programiści nie stworzą na tym spotkaniu ani jednej klasy to jest to inherentna część ich pracy.

    Nie negując zatem wagi i znaczenia samego kodowania oraz koniecznego dla tego skupienia (bo rzeczywiście na tym schodzi dużo czasu) praca zwana programowaniem jest złożoną pracą intelektualną, składającą się z wielu czynności, podczas których powstaje wiele produktów pośrednich o ulotnej wartości nie będących kodem (jak choćby owe bazgroły na tablicy – bardzo wartościowe tu i teraz dla konkretnego zespołu, zupełnie bezwartościowe już miesiąc później).

    Wszystko co napisałem powyżej biorąc sobie jako przykład osobę programującą (którą dla wygody pisania określiłem stosowną etykietką) odnosi się do wszelkich specjalistów, którzy coś tworzą i wymyślają – np. testerów, grafików, pisarzy itp. W istocie to, co chcielibyśmy osiągnąć – ów „wysokowydajny zespół” który jest celem zabiegów Scrum Masterów i innych (bo przecież nie tylko w Scrumie takowy zespół jest możliwy) to zespół, w którym wszyscy wkładają wszelkie swoje kompetencje w tworzenie dobrego produktu – a więc nie tylko poprawnego technicznie ale i sensownego, wartościowego – nie zaś skupiają się na wykonywaniu swoich wąskich czynności stroniąc od wszystkiego innego jako „nie-pracy”.

    Jest ważne by zdawać sobie sprawę, że twórcza praca intelektualna nie polega na tym, że każdy „zaetykietkowany” człowiek wykonuje swoje określone czynności („zadania”). Brak tej świadomości prowadzi organizacje do robienia rzeczy głupich takich jak na przykład liczenie godzin pracy zespołów developerskich czy etykietkowanie i tworzenie silosów specjalizacji.