Tuesday 26 December 2017

Przenoszenie średnia czas seria matlab


GEOS 585A, Analizy czasowe stosowane czasowe Telefon: (520) 621-3457 Faks: (520) 621-8229 Godziny pracy Piątek, 1: 00-6: 00 PM (napisz e-mailem, aby zaplanować spotkanie) Kurs Opis Narzędzia analityczne w czasie i domeny częstotliwości są wprowadzane w kontekście przykładowych szeregów czasowych. Używam zbioru danych przykładowych szeregów czasowych do zilustrowania metod i zmieniam zestaw danych w każdym semestrze kursu. W tym roku przykładowy zestaw danych pochodzi z projektu NSF dotyczącego zmienności opadów śniegu w amerykańskim dorzeczu Kalifornii. Ten zbiór danych obejmuje chronologię pierścieni drzewiastych, indeksy klimatyczne, zapisy przepływu strumieniowego i szeregi czasowe równoważników śniegu i wody zmierzone na stacjach śnieżnych. Zbierzcie swoje własne szeregi czasowe do wykorzystania w trakcie kursu. Mogą to być z twojego własnego projektu badawczego. Powrót na początek strony Jest to kurs wprowadzający, z naciskiem na praktyczne aspekty analizy szeregów czasowych. Metody są hierarchicznie wprowadzane - zaczynając od terminologii i grafiki eksploracyjnej, przechodząc do statystyki opisowej, a kończąc na podstawowych procedurach modelowania. Tematy obejmują detrending, filtrowanie, autoregresyjne modelowanie, analizę spektralną i regresję. Pierwsze dwa tygodnie spędzasz instalując Matlaba na swoim laptopie, uzyskując podstawowe wprowadzenie do Matlaba i gromadząc zestaw danych z szeregów czasowych dla kursu. Następnie obejmuje się dwanaście tematów lub lekcji, z których każdy obejmuje tydzień lub dwa okresy lekcyjne. Dwanaście zadań lekcyjnych pasuje do tematów. Zadania polegają na stosowaniu metod, poprzez uruchamianie wstępnie napisanych skryptów Matlab (programów) w szeregach czasowych i interpretowanie wyników. Kurs 3 kredyty dla studentów na kampusie Uniwersytetu Arizona w Tucson i 1 kredyt dla studentów online. Każda seria czasowa ze stałym przyrostem czasu (np. Dzień, miesiąc, rok) jest kandydatem do wykorzystania w kursie. Przykładami są codzienne pomiary opadów, sezonowy ogólny strumień, letnia średnia temperatura powietrza, roczne wskaźniki wzrostu drzew, wskaźniki temperatury powierzchni morza i dzienny wzrost wysokości krzewu. W wyniku podjęcia kursu powinieneś: rozumieć podstawowe pojęcia szeregów czasowych i terminologię być w stanie wybrać metody szeregów czasowych odpowiednie do celów, które są w stanie krytycznie ocenić literaturę naukową stosującą omawiane metody szeregów czasowych, poprawiły zrozumienie właściwości szeregów czasowych twojego własny zestaw danych umożliwia zwięzłe podsumowywanie wyników analizy szeregów czasowych na piśmie Wymagania wstępne Wstępny kurs statystyczny Dostęp do komputera przenośnego z zainstalowanym programem Matlab Zezwolenie instruktora (studenci i studenci online) Inne wymagania Jeśli jesteś na Uniwersytecie Arizona (UA) student na kampusie w Tucson, masz dostęp do Matlaba i wymaganych skrzynek narzędziowych za pośrednictwem licencji na stronie UA, ponieważ nie ma oprogramowania kosztowego. Żadne wcześniejsze doświadczenie z Matlab nie jest wymagane, a programowanie komputera nie jest częścią kursu. Jeśli jesteś online, a nie w kampusie na UA, będziesz mógł wziąć udział w kursie na semestr wiosenny 2017 jako kurs iCourse. Musisz upewnić się, że masz dostęp do Matlaba i wymaganych skrzynek (patrz poniżej) w twojej lokalizacji. Dostęp do Internetu. W trakcie kursu nie ma wymiany papieru. Uwagi i zadania są wymieniane elektronicznie, a zakończone zadania są przesyłane elektronicznie za pośrednictwem systemu University of Arizona Desire2Learn (D2L). Wersja Matlaba. Aktualizuję skrypty i funkcje teraz, a następnie wykorzystuję bieżącą wersję licencji Matlaba dla witryny, a aktualizacje mogą korzystać z funkcji Matlab niedostępnych we wcześniejszych wydaniach Matlab. Do 2017 roku używam programu Matlab w wersji 9.1.0.441655 (R2018b). Jeśli używasz wcześniejszej wersji, upewnij się, że jest to wersja Matlab Release 2007b lub nowsza. Oprócz głównego pakietu Matlab używane są cztery skrzynki narzędziowe: statystyki, przetwarzanie sygnałów, identyfikacja systemu i splajn (wersja Matlab 2017a lub wcześniejsza) lub dopasowanie krzywej (Matlab wersja 2017b lub nowsza) Dostępność Kurs jest oferowany w semestrze wiosennym co drugi rok (2018, 2017, itp.). Jest on otwarty dla studentów i może być również przyjęty przez seniorów licencjackich za zgodą instruktora. Zapisy dla studentów z UA są ograniczone do 18 na semestr letni 2017. Niewielka liczba studentów online zazwyczaj została uwzględniona, oferując kurs na różne sposoby. Teraz jest miejsce na kurs iCourse opisane powyżej. Powrót do początku strony Zarys kursu (lekcje) Harmonogram zazwyczaj umożliwia około dwóch tygodni na zebranie danych i zapoznanie się z Matlab. Następnie jeden tydzień (dwa okresy lekcyjne) poświęcony jest każdej z 12 lekcji lub tematów. Klasa spotyka się we wtorek i czwartek. Nowy temat zostanie wprowadzony we wtorek i będzie kontynuowany w następny czwartek. Czwartkowa klasa kończy się zadaniem i demonstracją uruchomienia skryptu na moich przykładowych danych. Przydział jest należny (musi zostać przesłany przez ciebie do D2L) przed zajęciami w następny wtorek. Pierwsza 12-godzinna klasa we wtorki jest używana do samooceny kierowanej i oceny przypisania i przesyłania ocenionych (stopniowanych) zadań do D2L. Pozostałe 45 minut służy do wprowadzenia następnego tematu. Musisz weź ze sobą laptopa na zajęcia we wtorki. 12 lekcji lub tematów objętych kursem są wymienione w zarysie zajęć. Studenci online powinni postępować zgodnie z tym samym harmonogramem składania zadań, co studenci będący rezydentami, ale nie mają dostępu do wykładów. Przesłane zadania studentów online nie podlegają samoocenie, ale są oceniane przeze mnie. Studenci online powinni mieć dostęp do D2L w celu przesyłania zadań. Semestr letni 2017. Klasa spotyka się dwa razy w tygodniu w 75-minutowych sesjach, 9: 00-10: 15 AM T, w pokoju 424 (sala konferencyjna) budynku Bryant Bannister Tree-Ring (budynek 45B). Pierwszy dzień zajęć to styczeń 12 (czwartek). Ostatni dzień zajęć to 2 maja (wtorek). W tygodniu przerwy wiosennej nie ma klasy (Mar 11-19). Analizujesz dane według własnego wyboru w zadaniach klasowych. Jak podano w przeglądzie kursu. istnieje duża elastyczność w wyborze szeregów czasowych. Przygotuję katalog odpowiednich szeregów czasowych, ale najlepiej skupić się na swoim zestawie danych. Pierwsze zadanie polega na uruchomieniu skryptu przechowującego dane i metadane zebrane w pliku mat, natywnym formacie Matlab. Kolejne przypisania pobierają dane z pliku mat w celu analizy szeregów czasowych. Zadania 12 tematów porusza się kolejno w trakcie semestru, który obejmuje około 15 tygodni. Przez pierwsze dwa tygodnie (4-5 spotkań klasowych) są używane niektóre materiały wprowadzające, decydujące i zbierające serie czasowe oraz przygotowujące Matlab na laptopie. Każdy tydzień po tym jest poświęcony jednemu z 12 tematów kursu. Każde zadanie polega na przeczytaniu rozdziału uwag, uruchomieniu powiązanego skryptu Matlab, który stosuje wybrane metody analizy szeregów czasowych do danych i zapisaniu interpretacji wyników. Zadania wymagają zrozumienia tematów wykładów oraz umiejętności korzystania z komputera i oprogramowania. Przesyłasz zadania, przesyłając je do D2L przed klasą wtorkową, kiedy zostanie wprowadzony następny temat. Pierwsze pół godziny tej wtorkowej klasy jest używane do samodzielnej oceny zadania, w tym do samodzielnego oceniania plików PDF do D2L. Sprawdzam co najmniej jedno zadanie z automatyczną gradacją każdego tygodnia (losowo) i mogę zmienić ocenę. Aby dowiedzieć się, jak uzyskać dostęp do przydziałów, kliknij pliki przydziału. Odczyty składają się z notatek z zajęć. Istnieje dwanaście zestawów plików notatek. pdf. po jednym dla każdego z tematów kursu. Dostęp do tych plików. pdf można uzyskać przez Internet. Więcej informacji na temat różnych tematów omawianych na kursie można znaleźć w referencjach wymienionych na końcu każdego rozdziału notatek lekcyjnych. Oceny opierają się wyłącznie na wynikach zadań, z których każdy jest wart 10 punktów. Nie ma egzaminów. Łączna liczba możliwych punktów dla 12 tematów wynosi 12 x 10 120. Ocena A wymagała 90-100 procent możliwych punktów. Ocena B wymaga 80-90 procent. Klasa C wymaga 70-80 procent i tak dalej. Oceny są przypisywane przez samoocenę kierowaną przez rubryki prezentowane w klasie. Liczba zdobytych punktów powinna być zaznaczona u góry każdego stopniowanego zadania. Twój znacznik przypisania powinien zawierać adnotację o wszelkich przecenach poprzez odniesienie do rubryki wskazanej w klasie (np. -0,5, rp3 oznacza odjęcie -0,5 z powodu błędu związanego z rubric point 3) Zadania, podane w klasie w czwartek, będą być należne (przesłane do D2L przez ciebie) przed rozpoczęciem zajęć w następny wtorek. Pierwsze pół godziny we wtorkowych posiedzeniach poświęcone będą prezentacji rubryk ocen, samooceny ukończonych zadań i przesyłaniu samodostatków do D2L. Ten harmonogram daje ci 4 dni na ukończenie zadania i przesłanie go do D2L przed 9:00 we wtorek. D2L śledzi czas przesłania zadania i żadna kara nie jest oceniana, dopóki nie zostanie przesłana przed godziną 9:00 we wtorek terminu. Jeśli masz zaplanowaną potrzebę nieobecności w klasie (np. Uczestnictwo w konferencji), jesteś odpowiedzialny za przesłanie swojego zadania przed godziną 9:00 we wtorek, kiedy to jest należne, oraz za przesłanie wersji własnej przez 10:15 tego samego dnia. Innymi słowy, harmonogram jest taki sam jak dla uczniów, którzy są w klasie. Jeśli pojawi się nagły wypadek (np. Masz grypę) i nie możesz wykonać zadania lub oceny zgodnie z harmonogramem, wyślij mi e-mail, a my osiągniemy pewne zakwaterowanie. W przeciwnym razie oceniona zostanie kara 5 punktów (połowa wszystkich dostępnych punktów za ćwiczenie). Wprowadzenie do organizacji szeregów czasowych danych do analizy Szeregi czasowe są szeroko definiowane jako dowolna seria pomiarów wykonywanych w różnym czasie. Niektóre podstawowe kategorie opisowe szeregów czasowych to: 1) długo vs krótki, 2) nawet krok w czasie w porównaniu z nierównomiernym krokiem w czasie, 3) dyskretny vs ciągły, 4) okresowy vs aperiodyczny, 5) stacjonarny vs niestacjonarny, i 6) jednowymiarowy vs wielowymiarowy . Te właściwości, jak również czasowe nakładanie się wielu serii, muszą być brane pod uwagę przy wyborze zestawu danych do analizy w tym kursie. W trakcie kursu przeanalizujesz własne szeregi czasowe. Pierwszym krokiem jest wybranie tych serii i zapisanie ich w strukturach w pliku mat. Jednorodność w przechowywaniu na początku jest wygodna dla tej klasy, tak więc uwaga może być skupiona na zrozumieniu metod szeregów czasowych, a raczej na debugowaniu kodu komputerowego w celu przygotowania danych do analizy. Struktura jest zmienną Matlaba podobną do bazy danych, ponieważ dostęp do jej treści uzyskuje się za pomocą tekstowych oznaczników pól. Struktura może przechowywać dane o różnych formach. Na przykład jedno pole może być numeryczną macierzą szeregów czasowych, innym może być tekst opisujący źródło danych itp. W pierwszym zadaniu uruchomi się skrypt Matlab, który odczytuje serie czasowe i metadane z plików tekstowych ascii, które przygotowujesz wcześniej i przechowuje dane w strukturach Matlab w jednym pliku mat. W kolejnych zadaniach zastosujesz metody szeregów czasowych do danych, uruchamiając skrypty Matlab i funkcje, które ładują plik mat i operują na tych strukturach. Wybierz przykładowe dane, które mają być użyte do przydziałów podczas kursu Czytaj: (1) Notes1.pdf, (2) Pierwsze kroki, dostępne z menu pomocy MATLAB Odpowiedź: Uruchom skrypt geosa1.m i odpowiedz na pytania podane w pliku w a1.pdf Jak rozróżnić kategorie szeregów czasowych Jak uruchomić i zakończyć program MATLAB Jak wprowadzić komendy MATLAB w wierszu polecenia Jak tworzyć liczby w oknie rysunku Jak eksportować dane do edytora tekstu Różnice między skryptami i funkcjami MATLAB Jak uruchomić skrypty i funkcje forma zmiennej struktury MATLAB Jak zastosować skrypt geosa1.m, aby uzyskać zestaw szeregów czasowych i metadanych w strukturach MATLAB Rozkład prawdopodobieństwa szeregu czasowego opisuje prawdopodobieństwo, że obserwacja mieści się w określonym zakresie wartości. Empiryczny rozkład prawdopodobieństwa dla szeregu czasowego można uzyskać poprzez sortowanie i klasyfikowanie wartości serii. Kwantyle i percentyle są przydatnymi statystykami, które można pobrać bezpośrednio z empirycznego rozkładu prawdopodobieństwa. Wiele parametrycznych testów statystycznych przyjmuje, że szereg czasowy jest próbką z populacji o określonym rozkładzie prawdopodobieństwa populacji. Często zakłada się, że populacja jest normalna. W niniejszym rozdziale przedstawiono podstawowe definicje, statystyki i wykresy związane z rozkładem prawdopodobieństwa. Ponadto wprowadzono test (test Lillieforsa) do testowania, czy próbka pochodzi z rozkładu normalnego o nieokreślonej średniej i wariancji. Odpowiedź: Uruchom skrypt geosa2.m i odpowiedz na pytania wymienione w pliku w a2.pdf Definicje terminów: szeregi czasowe, stacjonarność, gęstość prawdopodobieństwa, funkcja rozkładu, kwantyl, rozkład, lokalizacja, średnia, odchylenie standardowe i pochylenie Jak interpretować najcenniejsza grafika w analizie szeregów czasowych - wykres szeregów czasowych Jak interpretować wykres pudełkowy, histogram i normalny wykres prawdopodobieństwa Parametry i kształt rozkładu normalnego Test Lilliefors na normalność: opis graficzny, założenia, hipotezy zerowe i alternatywne Zastrzeżenie dotyczące interpretacji poziomy istotności testów statystycznych, gdy szeregi czasowe nie są przypadkowe w czasie. Jak zastosować geosa2.m do sprawdzenia właściwości rozkładu szeregu czasowego i przetestować serię pod kątem normalności. Autokorelacja odnosi się do korelacji szeregu czasowego z jego przeszłymi i przyszłymi wartościami. Autokorelacja jest czasami nazywana opóźnioną korelacją lub korelacją szeregową. co odnosi się do korelacji między członkami szeregu liczb ułożonych w czasie. Pozytywna autokorelacja może być uważana za szczególną formę utrzymywania. tendencja do tego, aby system pozostał w tym samym stanie z jednej obserwacji do następnej. Na przykład prawdopodobieństwo, że jutro będzie deszcz, jest większe, jeśli dzisiaj jest deszczowo, niż dzisiaj, gdy jest sucho. Geofizyczne szeregi czasowe są często autokorelowane z powodu inercji lub procesów przenoszenia w systemie fizycznym. Na przykład wolno ewoluujące i poruszające się systemy niskociśnieniowe w atmosferze mogą nadawać uporowi dzienne opady. Lub powolne odwadnianie zasobów wód podziemnych może powodować korelację z kolejnymi rocznymi przepływami rzeki. Lub przechowywane fotosyntiany mogą wpływać na kolejne roczne wartości indeksów drzewiastych. Autorelacja utrudnia stosowanie testów statystycznych poprzez zmniejszenie liczby niezależnych obserwacji. Autokorelacja może także skomplikować identyfikację znaczącej kowariancji lub korelacji między seriami czasowymi (np. Wytrącanie z szeregiem pierścienia drzewa). Autokorelacja może być wykorzystana do przewidywań: serie związane z autokorelacją są przewidywalne, w sposób probabilistyczny, ponieważ przyszłe wartości zależą od wartości bieżących i przeszłych. Trzy narzędzia do oceny autokorelacji szeregu czasowego to (1) wykres szeregów czasowych, (2) opóźniony wykres rozrzutu i (3) funkcja autokorelacji. Odpowiedź: Uruchom skrypt geosa3.m i odpowiedz na pytania wymienione w pliku w a3.pdf Definicje: autokorelacja, trwałość, korelacja szeregowa, funkcja autokorelacji (acf), funkcja autokowariancji (acvf), efektywna wielkość próbki Jak rozpoznać autokorelację w szeregu czasowym fabuła Jak używać opóźnionych wykresów rozrzutu w celu oceny autokorelacji Jak interpretować wykreślone acf Jak dostosować rozmiar próbki do autokorelacji Matematyczna definicja funkcji autokorelacji Warunki wpływające na szerokość obliczonego przedziału ufności acf Różnica między jednostronnym a dwoma - sided test znaczącej autokorelacji lag-1 Jak zastosować geos3.m do badania autokorelacji szeregu czasowego Widmo szeregu czasowego jest rozkładem wariancji szeregu w funkcji częstotliwości. Celem analizy spektralnej jest oszacowanie i badanie widma. Widmo nie zawiera nowych informacji poza tym w funkcji autokowariancji (acvf), a w rzeczywistości spektrum można obliczyć matematycznie poprzez transformację akvf. Ale spektrum i aktywność przedstawiają informacje na temat wariancji szeregów czasowych z uzupełniających punktów widzenia. Acf podsumowuje informacje w dziedzinie czasu i widma w dziedzinie częstotliwości. Odpowiedź: Uruchom skrypt geosa4.m i odpowiedz na pytania zawarte w pliku w a4.pdf. Definicje: częstotliwość, okres, długość fali, widmo, częstotliwość Nyquista, częstotliwości Fouriera, szerokość pasma. Przyczyny analizy widma. Jak interpretować spektrum wykreślone pod względem rozkładu wariancji Różnica między spektrum a znormalizowanym widmem Definicja okna opóźnienia w celu oszacowania widma metodą Blackmana-Tukeya Jak wybór okna opóźnienia wpływa na szerokość pasma i wariancję szacowanego widma Jak zdefiniować widmo białego szumu i spektrum autoregresji Jak naszkicować typowe kształty spektralne: biały szum, autoregresyjny, quasi-okresowy, niskiej częstotliwości, wysokiej częstotliwości Jak zastosować geosa4.m do analizy spektrum szeregów czasowych metodą Blackmana-Tukeya Autoregressive-Moving Modelowanie średnie (ARMA) Modele autoregresyjno-ruchome (ARMA) to modele matematyczne trwałości lub autokorelacji w szeregu czasowym. Modele ARMA są szeroko stosowane w hydrologii, dendrochronologii, ekonometrii i innych dziedzinach. Istnieje kilka możliwych powodów dopasowania modeli ARMA do danych. Modelowanie może przyczynić się do zrozumienia fizycznego systemu poprzez ujawnienie czegoś o fizycznym procesie, który buduje wytrwałość w serii. Na przykład, prosty fizyczny model bilansu wodnego, składający się z warunków dla wprowadzania opadów, parowania, infiltracji i magazynowania wód gruntowych, może dostarczyć serii przepływu, która następuje po określonej postaci modelu ARMA. Modele ARMA mogą być również używane do przewidywania zachowania szeregów czasowych z samych tylko przeszłych wartości. Takie przewidywanie może być wykorzystane jako linia podstawowa do oceny potencjalnego znaczenia innych zmiennych w systemie. Modele ARMA są szeroko stosowane do prognozowania ekonomicznych i przemysłowych szeregów czasowych. Modele ARMA można również stosować do usuwania uporczywości. Na przykład w dendrochronologii modelowanie ARMA jest stosowane rutynowo w celu generowania chronologicznych szeregów czasowych o wskaźniku szerokości pierścienia bez zależności od przeszłych wartości. Ta operacja, zwana wstępnym bieleniem, ma na celu usunięcie trwałości związanej z biologią z serii, tak aby reszta mogła być bardziej odpowiednia do badania wpływu klimatu i innych zewnętrznych czynników środowiskowych na wzrost drzew. Odpowiedź: Uruchom skrypt geosa5.m i odpowiedz na pytania wymienione w pliku w a5.pdf Funkcjonalna forma najprostszych modeli AR i ARMA Dlaczego takie modele są określane jako autoregresyjne lub ruchome? Trzy kroki w modelowaniu ARMA Wzorce diagnostyczne funkcje autokorelacji i częściowej autokorelacji dla szeregu czasowego AR (1) Definicja końcowego błędu prognozowania (FPE) oraz sposób wykorzystania FPE do wyboru najlepszego modelu ARMA. Definicja statystyki Portmanteau oraz sposób, w jaki może ona i resztę służy do oceny, czy model ARMA skutecznie modeluje trwałość w szeregu Jak stosuje się zasadę oszczędności w modelowaniu ARMA Definicja przedwitwienia Jak przedwcześnie wpływa na (1) pojawienie się szeregów czasowych i (2) widmo szeregu czasowego Jak zastosować geosa5.m do modelu ARMA w szeregach czasowych Analiza spektralna - wygładzona metoda periodogramowa Istnieje wiele dostępnych metod szacowania widma szeregu czasowego. W lekcji 4 przyjrzeliśmy się metodzie Blackmana-Tukeya, opartej na transformacji Fouriera wygładzonej, skróconej funkcji autokowariancji. Wygładzona metoda periodogramu omija transformację acf poprzez bezpośrednią transformację Fouriera szeregu czasowego i obliczenia surowego periodogramu, funkcji wprowadzonej po raz pierwszy w XIX wieku do badania szeregów czasowych. Surowy periodogram jest wygładzany przez zastosowanie kombinacji lub rozpiętości jednego lub więcej filtrów w celu uzyskania szacowanego widma. Gładkość, rozdzielczość i wariancja estymacji widmowych jest kontrolowana przez wybór filtrów. Bardziej zaakcentowane wygładzenie surowego periodogramu powoduje powstanie płynnie zmieniającego się spektrum lub zerowego kontinuum, wobec którego można badać wartości szczytowe spektralne dla istotności. To podejście jest alternatywą dla specyfikacji funkcjonalnej postaci continuum zerowego (na przykład widma AR). Odpowiedź: Uruchom skrypt geosa6.m i odpowiedz na pytania wymienione w pliku w a6.pdf Definicja: surogram periodyczny, filtr Daniell, zakres filtru, zerowa płynność ciągła, stabilność i rozdzielczość zbieżności widma, wypełnienie, przeciek Cztery główne kroki w oszacowaniu widmo za pomocą wygładzonego periodogramu Jak efekt wyboru przęseł filtra na gładkość, stabilność i rozdzielczość widma Jak stosować continuum zerowe w testowaniu znaczenia szczytów spektralnych Jak zastosować geosa6.m do oszacowania spektrum czasu seria przez wygładzoną metodę periodogramu i test okresowości z określoną częstotliwością Trend w szeregu czasowym to powolna, stopniowa zmiana w niektórych właściwościach serii w całym badanym okresie. Trend jest czasami luźno definiowany jako długoterminowa zmiana średniej (rysunek 7.1), ale może również odnosić się do zmian w innych właściwościach statystycznych. Na przykład szeregi pierścienia drzewa o zmierzonej szerokości pierścienia często mają trend w wariancji, jak również średnią (rysunek 7.2). W tradycyjnej analizie szeregów czasowych szereg czasowy został zdekomponowany do trendów, sezonowych lub okresowych składników i nieregularnych fluktuacji, a różne części badano osobno. Nowoczesne techniki analityczne często traktują tę serię bez takiego rutynowego rozkładu, ale często konieczne jest oddzielne rozważenie trendu. Detrending to statystyczna lub matematyczna operacja usuwania trendu z serii. Detrending jest często stosowany w celu usunięcia funkcji, która może zniekształcać lub zaciemniać interesujące relacje. Na przykład w klimatologii trend temperaturowy wywołany miejskim ociepleniem może przesłonić związek między zachmurzeniem a temperaturą powietrza. Detrending jest również czasem wykorzystywany jako etap wstępnego przetwarzania w celu przygotowania szeregów czasowych do analizy metodami, które zakładają stacjonarność. Dostępnych jest wiele alternatywnych metod detrendingu. Prosty trend liniowy w średniej można usunąć, odejmując linię prostą o najmniejszych kwadratach. Bardziej skomplikowane trendy mogą wymagać różnych procedur. Na przykład sześcienny wypust wygładzający jest powszechnie stosowany w dendrochronologii w celu dopasowania i usunięcia trendu szerokości pierścienia, który może nie być liniowy, lub nawet nie monotonicznie zwiększać się lub maleć w czasie. Przy badaniu i usuwaniu trendu ważne jest zrozumienie wpływu znoszenia na właściwości spektralne szeregów czasowych. Efekt ten można podsumować za pomocą odpowiedzi częstotliwościowej funkcji wygaszenia. Odpowiedź: Uruchom skrypt geosa7.m i odpowiedz na pytania wymienione w pliku w a7.pdf Definicje: pasmo przenoszenia, splajn, sześcienny splajn Spline Plusy i minusy stosunku vs różnica detrending Interpretacja terminów w równaniu dla parametru splajnu Jak wybrać splajnuj interaktywnie z pożądaną charakterystyką częstotliwości Jak wpływa na widmo detekcja Jak mierzyć znaczenie komponentu trendów w szeregach czasowych Jak zastosować geosa7.m do interaktywnego wyboru funkcji detekcji splajnu i detrend szeregu czasowego Szacunkowe widmo czasu seria podaje rozkład wariancji jako funkcję częstotliwości. W zależności od celu analizy niektóre częstotliwości mogą być bardziej interesujące niż inne i pomocne może być zmniejszenie amplitudy zmian na innych częstotliwościach poprzez statystyczne filtrowanie ich przed przeglądaniem i analizowaniem serii. Na przykład, zmiany o wysokiej częstotliwości (rok do roku) w ocenianej skali zrzutu wody mogą być stosunkowo nieistotne dla zaopatrzenia w wodę w basenie z dużymi zbiornikami, które mogą przechowywać kilka lat średniego rocznego spływu. Tam, gdzie zmiany o niskiej częstotliwości są w głównym interesie, pożądane jest wygładzenie zapisu absolutorium w celu wyeliminowania lub zmniejszenia krótkotrwałych fluktuacji przed użyciem zapisu absolutorium dla zbadania znaczenia zmian klimatycznych w zaopatrzeniu w wodę. Wygładzanie jest formą filtrowania, która tworzy szereg czasowy, w którym zmniejsza się znaczenie składowych widmowych przy wysokich częstotliwościach. Inżynierowie elektrycy nazywają ten rodzaj filtra filtrem dolnoprzepustowym, ponieważ zmiany o niskiej częstotliwości mogą przechodzić przez filtr. W filtrze dolnoprzepustowym fale o niskiej częstotliwości (długookresowej) są słabo odczuwalne przez wygładzanie. Możliwe jest również filtrowanie szeregu w taki sposób, że zmiany o niskiej częstotliwości są zredukowane, a zmiany o wysokiej częstotliwości niezmienione. Ten rodzaj filtra nazywany jest filtrem górnoprzepustowym. Detrending jest formą filtrowania górnoprzepustowego: dopasowana linia trendu śledzi najniższe częstotliwości, a reszty z linii trendu mają usunięte te niskie częstotliwości. Trzeci rodzaj filtrowania, zwany filtrem pasmowo-przepustowym, zmniejsza lub filtruje zarówno wysokie, jak i niskie częstotliwości, i pozostawia pewne pośrednie pasmo częstotliwości stosunkowo niewrażliwe. W tej lekcji omawiamy kilka metod wygładzania lub filtrowania dolnoprzepustowego. Omówiliśmy już, w jaki sposób sześcienny wypust wygładzający może być przydatny do tego celu. Omówiono cztery inne rodzaje filtrów: 1) prosta średnia ruchoma, 2) dwumianowa, 3) Gaussowska i 4) okienkowanie (metoda Hamminga). W wyborze filtra dolnoprzepustowego należy uwzględnić pożądaną charakterystykę częstotliwościową i rozpiętość lub szerokość filtru. Odpowiedź: Uruchom skrypt geosa8.m i odpowiedz na pytania wymienione w pliku w a8.pdf Definicje: filtr, waga filtru, zakres filtru, filtr dolnoprzepustowy, filtr górnoprzepustowy, filtr pasmowoprzepustowy Odpowiedź częstotliwościowa filtra filtr jest związany z rozkładem Gaussa Jak zbudować prosty dwumianowy filtr ręcznie (bez komputera) Jak opisać funkcję odpowiedzi częstotliwościowej w kategoriach systemu z wejściami i wyjściami sinusoidalnymi Jak zastosować geosa8.m do interaktywnego projektowania dwumianu Gaussa lub Filtr dolnoprzepustowy okna Hamminga dla szeregu czasowego Współczynnik korelacji Pearsona z wartością produktu jest prawdopodobnie najczęściej używaną statystyką do podsumowania zależności między dwiema zmiennymi. Istotność statystyczną i zastrzeżenia interpretacji współczynnika korelacji w odniesieniu do szeregów czasowych są tematami tej lekcji. Przy pewnych założeniach statystyczna istotność współczynnika korelacji zależy tylko od wielkości próby, zdefiniowanej jako liczba niezależnych obserwacji. Jeżeli szeregi czasowe są autokorelowane, przy ocenie istotności należy stosować efektywny rozmiar próbki, niższy niż rzeczywisty rozmiar próbki. Relacje przejściowe lub pozorne mogą powodować znaczącą korelację w niektórych okresach, a nie w innych. Zmienność czasową siły korelacji liniowej można badać za pomocą wykresów korelacji obliczanych dla okna przesuwnego. Ale jeśli wiele współczynników korelacji jest ocenianych jednocześnie, przedziały ufności powinny być dostosowane (dostosowanie Bonferroniego), aby zrekompensować zwiększone prawdopodobieństwo zaobserwowania pewnych wysokich korelacji, gdy nie istnieje związek. Interpretacja korelacji ślizgowych może być również komplikowana przez zmiany w czasie średniej i wariancji szeregu, ponieważ korelacja przesuwająca odzwierciedla współzmienność w kategoriach standaryzowanych odstępstw od środków w okienku czasowym zainteresowania, które mogą różnić się od środków długoterminowych. Na koniec należy podkreślić, że współczynnik korelacji Pearsona mierzy siłę zależności liniowej. Wykresy rozrzutu są przydatne do sprawdzenia, czy związek jest liniowy. Odpowiedź: Uruchom skrypt geosa9.m ​​i odpowiedz na pytania zawarte w pliku w a9.pdf Matematyczne określenie współczynnika korelacji Założenia i hipotezy dla testu istotności współczynnika korelacji Jak obliczyć poziom istotności współczynnika korelacji i dostosować poziom istotności dla autokorelacji w Poszczególne szeregi czasowe Zastrzeżenia do interpretacji współczynnika korelacji Zmiana Bonferroni do poziomu znaczeniowej korelacji w wielu porównaniach Inflacja wariancji estymowanego współczynnika korelacji w przypadku autokorelacji szeregów czasowych Możliwe efekty transformacji danych na korelacji Jak interpretować wykresy korelacji ślizgowej Jak zastosować geosę9. m do analizy korelacji i przesuwania korelacji między parami szeregów czasowych Opóźnione relacje są charakterystyczne dla wielu naturalnych systemów fizycznych. Opóźniona korelacja odnosi się do korelacji między dwiema szeregami czasowymi przesuniętymi w czasie względem siebie. Opóźniona korelacja jest ważna w badaniu zależności między szeregami czasowymi z dwóch powodów. Po pierwsze, jedna seria może mieć opóźnioną odpowiedź na inną serię, lub może opóźnioną reakcję na wspólny bodziec, który wpływa na obie serie. Po drugie, odpowiedź jednej serii na inną serię lub zewnętrzny bodziec może być rozmazana w czasie, tak że bodziec ograniczony do jednej obserwacji wywołuje odpowiedź przy wielu obserwacjach. Na przykład ze względu na składowanie w zbiornikach, lodowcach itp., Zrzuty objętościowe rzeki w ciągu jednego roku mogą zależeć od opadów w kilku poprzednich latach. Lub z powodu zmian gęstości korony i przechowywania fotosyntatu, szerokość pierścienia drzewa w ciągu jednego roku może zależeć od klimatu z kilku poprzednich lat. Prosty współczynnik korelacji między dwiema seriami prawidłowo wyrównanymi w czasie jest niewystarczający, aby scharakteryzować związek w takich sytuacjach. Przydatne funkcje, które zbadamy jako alternatywę dla prostego współczynnika korelacji, to funkcja korelacji krzyżowej i funkcja odpowiedzi impulsowej. Funkcja korelacji krzyżowej jest korelacją między seriami przesuniętymi względem siebie w funkcji liczby obserwacji przesunięcia. Jeśli poszczególne serie są autokorelowane, oszacowana funkcja korelacji krzyżowej może być zniekształcona i wprowadzająca w błąd jako miara opóźnionej zależności. Przyjrzymy się dwóm podejściom do wyjaśnienia wzoru korelacji wzajemnych. Jednym z nich jest indywidualne usunięcie trwałości z serii przed korektą korelacji krzyżowej lub przed nią. W tym podejściu obie serie są zasadniczo traktowane na równych prawach. Alternatywą jest podejście systemowe: zobacz serię jako dynamiczny system liniowy - jedną serię wejściową i drugą - i oszacuj funkcję odpowiedzi impulsowej. Funkcja odpowiedzi impulsowej jest odpowiedzią wyjścia w chwili obecnej i w przyszłości na hipotetyczny impuls wejściowy ograniczony do bieżącego czasu. Answer: Run script geosa10.m and answer questions listed in the file in a10.pdf Definitions: cross-covariance function, cross-correlation function, impulse response function, lagged correlation, causal, linear How autocorrelation can distort the pattern of cross-correlations and how prewhitening is used to clarify the pattern The distinction between the equal footing and systems approaches to lagged bivariate relationships Which types of situations the impulse response function (irf) is an appropriate tool How to represent the causal system treated by the irf in a flow diagram How to apply geos10.m to analyze the lagged cross-correlation structure of a a pair of time series Multiple linear regression Multiple linear regression (MLR) is a method used to model the linear relationship between a dependent variable and one or more independent variables. The dependent variable is sometimes also called the predictand, and the independent variables the predictors. MLR is based on least squares: the model is fit such that the sum-of-squares of differences of observed and predicted values is minimized. MLR is probably the most widely used method in dendroclimatology for developing models to reconstruct climate variables from tree-ring series. Typically, a climatic variable is defined as the predictand and tree-ring variables from one or more sites are defined as predictors. The model is fit to a period -- the calibration period -- for which climatic and tree-ring data overlap. In the process of fitting, or estimating, the model, statistics are computed that summarize the accuracy of the regression model for the calibration period. The performance of the model on data not used to fit the model is usually checked in some way by a process called validation. Finally, tree-ring data from before the calibration period are substituted into the prediction equation to get a reconstruction of the predictand. The reconstruction is a prediction in the sense that the regression model is applied to generate estimates of the predictand variable outside the period used to fit the data. The uncertainty in the reconstruction is summarized by confidence intervals, which can be computed by various alternative ways. Answer: Run script geosa11.m (Part 1) and answer questions listed in the file in a11.pdf The equation for the MLR model Assumptions for the MLR model Definitions of MLR statistics: coefficient of determination, sums-of-squares terms, overall-F for the regression equation, standard error of the estimate, adjusted R-squared, pool of potential predictors The steps in an analysis of residuals How to apply geosa11.m (part 1) to fit a MLR regression model to predict one variable from a set of several predictor variables Validating the regression model Regression R-squared, even if adjusted for loss of degrees of freedom due to the number of predictors in the model, can give a misleading, overly optimistic view of accuracy of prediction when the model is applied outside the calibration period. Application outside the calibration period is the rule rather than the exception in dendroclimatology. The calibration-period statistics are typically biased because the model is tuned for maximum agreement in the calibration period. Sometimes too large a pool of potential predictors is used in automated procedures to select final predictors. Another possible problem is that the calibration period itself may be anomalous in terms of the relationships between the variables: modeled relationships may hold up for some periods of time but not for others. It is advisable therefore to validate the regression model by testing the model on data not used to fit the model. Several approaches to validation are available. Among these are cross-validation and split-sample validation. In cross-validation, a series of regression models is fit, each time deleting a different observation from the calibration set and using the model to predict the predictand for the deleted observation. The merged series of predictions for deleted observations is then checked for accuracy against the observed data. In split-sample calibration, the model is fit to some portion of the data (say, the second half), and accuracy is measured on the predictions for the other half of the data. The calibration and validation periods are then exchanged and the process repeated. In any regression problem it is also important to keep in mind that modeled relationships may not be valid for periods when the predictors are outside their ranges for the calibration period: the multivariate distribution of the predictors for some observations outside the calibration period may have no analog in the calibration period. The distinction of predictions as extrapolations versus interpolations is useful in flagging such occurrences. Answer: Run script geosa11.m (Part 2) and answer questions listed in the file in a12.pdf Definitions: validation, cross-validation, split-sample validation, mean square error (MSE), root-mean-square error (RMSE) standard error of prediction, PRESS statistic, hat matrix, extrapolation vs interpolation Advantages of cross-validation over alternative validation methods How to apply geosa11.m (part 2) for cross-validated MLR modeling of the relationship between a predictand and predictors, including generation of a reconstruction and confidence bands Downloading Files -- tsfiles. zip The Matlab class scripts and user-written functions are zipped in a file called tsfiles. zip. To get the files, first create an empty directory on your computer. This is where you will store all functions, scripts and data used in the course. Go to D2L, or click on tsfiles. zip to download the zip file to that directory and unzip it there. When you run matlab, be sure that directory is your current matlab working directory. Powerpoint lecture outlines miscellaneous files. Downloadable file other. zip has miscellaneous files used in lectures. Included are Matlab demo scripts, sample data files, user-written functions used by demo scripts, and powerpoint presentations, as pdfs (lect1a. pdf, lect1b. pdf, etc.) used in on-campus lectures. I update other. zip over the semester, and add the presentation for the current lecture within a couple of days after that lecture is given. To run the Matlab scripts for the assignments, you must have your data, the class scripts, and the user-written Matlab functions called by the scripts in a single directory on your computer. The name of this directory is unimportant. Under Windows, it might be something like C:geos585a. The functions and scripts provided for the course should not require any tailoring, but some changes can be made for convenience. For example, scripts and functions will typically prompt you for the name of your input data file and present Spring17 as the default. That is because Ive stored the sample data in Spring17.mat. If you want to avoid having to type over Spring17 with the name of your own data file each time you run the script, edit the matlab script with the Matlab editordebugger to change one line. In the editor, search for the string Spring17 and replace it with the name of your. mat storage file (e. g. Smith2017), then be sure to re-save the edited script. This was the first web page I wrote on Wavelets. From this seed grew other web pages which discuss a variety of wavelet related topics. For a table of contents see Wavelets and Signal Processing. This web page applies the wavelet transform to a time series composed of stock market close prices. Later web pages expand on this work in a variety of areas (e. g. compression, spectral analysis and forecasting). When I started out I thought that I would implement the Haar wavelet and that some of my colleagues might find it useful. I did not expect signal processing to be such an interesting topic. Nor did I understand who many different areas of computer science, mathematics, and quantitative finance would be touched by wavelets. I kept finding that one thing lead to another, making it difficult to find a logical stopping place. This wandering path of discovery on my part also accounts for the somewhat organic growth of these web pages. I have tried to tame this growth and organize it, but I fear that it still reflects the fact that I did not know where I was going when I started. The Java code published along with this web page reflect the first work I did on wavelets. More sophisticated, lifting scheme based, algorithms, implemented in Java can be found on other web pages. The wavelet lifting scheme code, published on other web pages, is simpler and easier to understand. The wavelet lifting scheme also provides an elegant and powerful framework for implementing a range of wavelet algorithms. In implementing wavelet packet algorithms, I switched from Java to C. The wavelet packet algorithm I used is simpler and more elegant using Cs operator overloading features. C also supports generic data structures (templates), which allowed me to implement a generic class hierarchy for wavelets. This code includes several different wavelet algoriths, including Haar, linear interpolation and Daubechies D4. Like the wavelet algorithms, the financial modeling done here represents very early work. When I started working on these web pages I had no experience with modeling financial time series. The work described on this web page lead to more intensive experiments with wavelet filters in financial models, which I continue to work on. On this web page I use stock market close prices. In financial modeling one usually uses returns, since what you are trying to predict is future return. I became interested in wavelets by accident. I was working on software involved with financial time series (e. g. equity open and close price), so I suppose that it was an accident waiting to happen. I was reading the February 2001 issue of WIRED magazine when I saw the graph included below. Every month WIRED runs various graphic visualizations of financial data and this was one of them. If stock prices do indeed factor in all knowable information, a composite price graph should proceed in an orderly fashon, as new information nudges perceived value against the pull of established tendencies. Wavelet analysis, widely used in communications to separate signal (patterned motion) from noise (random activity), suggests otherwise. This image shows the results of running a Haar transform - the fundamental wavelet formula -- on the daily close of the Dow and NASDQ since 1993. The blue mountains constitute signal. The embedded red spikes represent noise, of which the yellow line follows a 50-day moving average. Noise, which can be regarded as investor ignorance, has risen along with the value of both indices. But while noise in the Dow has grown 500 percent on average, NASDAQ noise has ballooned 3,000 percent, far outstripping NASDAQs spectacular 500-percent growth during the same period. Most of this increase has occurred since 1997, with an extraordinary surge since January 2000. Perhaps there was a Y2K glich after all -- one that derailed not operating systems and CPUs, but -- -- investor psychology. - Clem Chambers (clemcadvfn). Graph and quote from WIRED Magazine, February 2001, page 176 I am a Platonist. I believe that, in the abstract, there is truth, but that we can never actually reach it. We can only reach an approximation, or a shadow of truth. Modern science expresses this as Heisenberg uncertainty. A Platonist view of a financial time series is that there is a true time series that is obscured to some extent by noise. For example, a close price or bidask time series for a stock moves on the basis of the supply and demand for shares. In the case of a bidask time series, the supplydemand curve will be surrounded by the noise created by random order arrival. If, somehow, the noise could be filtered out, we would see the true supplydemand curve. Software which uses this information might be able to do a better job because it would not be confused by false movements created by noise. The WIRED graph above suggests that wavelet analysis can be used to filter a financial time series to remove the associated noise. Of course there is a vast area that is not addressed by the WIRED quote. What, for example, constitutes noise What are wavelets and Haar wavelets Why are wavelets useful in analyzing financial time series When I saw this graph I knew answers to none of these questions. The analysis provided in the brief WIRED paragraph is shallow as well. Noise in the time series increases with trading volume. In order to claim that noise has increased, the noise should be normalized for trading volume. Reading is a dangerous thing. It can launch you off into strange directions. I moved from California to Santa Fe, New Mexico because I read a book. That one graph in WIRED magazine launched me down a path that I spent many months following. Like any adventure, Im not sure if I would have embarked on this one if I had known how long and, at times, difficult, the journey would be. Years ago, when it first came out, I bought a copy of the book The World According to Wavelets by Barbara Hubbard, on the basis of a review I read in the magazine Science . The book sat on my shelf unread until I saw the WIRED graph. Wavelets have been somewhat of a fad, a buzzword that people have thrown around. Barbara Hubbard started writing The World According to Wavelets when the wavelet fad was starting to catch fire. She provides an interesting history of how wavelets developed in the mathematical and engineering worlds. She also makes a valiant attempt to provide an explanation of what the wavelet technique is. Ms. Hubbard is a science writer, not a mathematician, but she mastered a fair amount of basic calculus and signal processing theory (which I admire her for). When she wrote The World According to Wavelets there were few books on wavelets and no introductory material. Although I admire Barbara Hubbards heroic effort, I had only a surface understanding of wavelets after reading The World According to Wavelets . There is a vast literature on wavelets and their applications. From the point of view of a software engineer (with only a year of college calculus), the problem with the wavelet literature is that it has largely been written by mathematicians, either for other mathematicians or for students in mathematics. Im not a member of either group, so perhaps my problem is that I dont have a fluent grasp of the language of mathematics. I certianly feel this when ever I read journal articles on wavelets. However, I have tried to concentrate on books and articles that are explicitly introductory and tutorial. Even these have proven to be difficult. The first chapter of the book Wavelets Made Easy by Yves Nievergelt starts out with an explaination of Haar wavelets (these are the wavelets used to generate the graph published in WIRED). This chapter has numerous examples and I was able to understand and implement Haar wavelets from this material (links to my Java code for Haar wavelets can be found below). A later chapter discusses the Daubechies wavelet transform. Unfortunately, this chapter of Wavelets Made Easy does not seem to be as good as the material on Haar wavelets. There appear to be a number of errors in this chapter and implementing the algorithm described by Nievergelt does not result in a correct wavelet transform. Among other things, the wavelet coefficients for the Daubechies wavelets seem to be wrong. My web page on the Daubechies wavelet transform can be found here. The book Ripples in Mathematics (see the references at the end of the web page) is a better reference. There is a vast literature on wavelets. This includes thousands of journal articles and many books. The books on wavelets range from relatively introductory works like Nievergelts Wavelets Made Easy (which is still not light reading) to books that are accessable only to graduate students in mathematics. There is also a great deal of wavelet material on the Web. This includes a number of tutorials (see Web based reference. below). Given the vast literature on wavelets, there is no need for yet another tutorial. But it might be worth while to summarize my view of wavelets as they are applied to 1-D signals or time series (an image is 2-D data). A time series is simply a sample of a signal or a record of something, like temperature, water level or market data (like equity close price). Wavelets allow a time series to be viewed in multiple resolutions. Each resolution reflects a different frequency. The wavelet technique takes averages and differences of a signal, breaking the signal down into spectrum. All the wavelet algorithms that Im familiar with work on time series a power of two values (e. g. 64, 128, 256. ). Each step of the wavelet transform produces two sets of values: a set of averages and a set of differences (the differences are referred to as wavelet coefficients). Each step produces a set of averages and coefficients that is half the size of the input data. For example, if the time series contains 256 elements, the first step will produce 128 averages and 128 coefficients. The averages then become the input for the next step (e. g. 128 averages resulting in a new set of 64 averages and 64 coefficients). This continues until one average and one coefficient (e. g. 2 0 ) is calculated. The average and difference of the time series is made across a window of values. Most wavelet algorithms calculate each new average and difference by shifting this window over the input data. For example, if the input time series contains 256 values, the window will be shifted by two elements, 128 times, in calculating the averages and differences. The next step of the calculation uses the previous set of averages, also shifting the window by two elements. This has the effect of averaging across a four element window. Logically, the window increases by a factor of two each time. In the wavelet literature this tree structured recursive algorithm is referred to as a pyramidal algorithm. The power of two coefficient (difference) spectrum generated by a wavelet calculation reflect change in the time series at various resolutions. The first coefficient band generated reflects the highest frequency changes. Each later band reflects changes at lower and lower frequencies. There are an infinite number of wavelet basis functions. The more complex functions (like the Daubechies wavelets) produce overlapping averages and differences that provide a better average than the Haar wavelet at lower resolutions. However, these algorithms are more complicated. Every field of specialty develops its own sub-language. This is certainly true of wavelets. Ive listed a few definitions here which, if I had understood their meaning would have helped me in my wanderings through the wavelet literature. A function that results in a set of high frequency differences, or wavelet coefficients. In lifting scheme terms the wavelet calculates the difference between a prediction and an actual value. If we have a data sample s i . s i1 . s i2 . the Haar wavelet equations is Where c i is the wavelet coefficient. The wavelet Lifting Scheme uses a slightly different expression for the Haar wavelet: The scaling function produces a smoother version of the data set, which is half the size of the input data set. Wavelet algorithms are recursive and the smoothed data becomes the input for the next step of the wavelet transform. The Haar wavelet scaling function is where a i is a smoothed value. The Haar transform preserves the average in the smoothed values. This is not true of all wavelet transforms. High pass filter In digital signal processing (DSP) terms, the wavelet function is a high pass filter. A high pass filter allows the high frequency components of a signal through while suppressing the low frequency components. For example, the differences that are captured by the Haar wavelet function represent high frequency change between an odd and an even value. Low pass filter In digital signal processing (DSP) terms, the scaling function is a low pass filter. A low pass filter suppresses the high frequency components of a signal and allows the low frequency components through. The Haar scaling function calculates the average of an even and an odd element, which results in a smoother, low pass signal. Orthogonal (or Orthonormal) Transform The definition of orthonormal (a. k.a. orthogonal) tranforms in Wavelet Methods for Time Series Analysis by Percival and Walden, Cambridge University Press, 2000, Chaper 3, section 3.1, is one of the best Ive seen. Ive quoted this below: Orthonormal transforms are of interst because they can be used to re-express a time series in such a way that we can easily reconstruct the series from its transform. In a loose sense, the information in the transform is thus equivalent to the information is the original series to put it another way, the series and its transform can be considered to be two representations of the same mathematical entity. In terms of wavelet transforms this means that the original time series can be exactly reconstructed from the time series average and coefficients generated by an orthogonal (orthonormal) wavelet transform. This is also referred to as de-noising. Signal estimation algorithms attempt to characterize portions of the time series and remove those that fall into a particular model of noise. These Web pages publish some heavily documented Java source code for the Haar wavelet transform. Books like Wavelets Made Easy explain some of the mathematics behind the wavelet transform. I have found, however, that the implemation of this code can be at least as difficult as understanding the wavelet equations. For example, the in-place Haar wavelet transform produces wavelet coefficients in a butterfly pattern in the original data array. The Java source published here includes code to reorder the butterfly into coefficient spectrums which are more useful when it comes to analyzing the data. Although this code is not large, it took me most of a Saturday to implement the code to reorder the butterfly data pattern. The wavelet Lifting Scheme, developed by Wim Sweldens and others provides a simpler way to look as many wavelet algorithms. I started to work on Lifting Scheme wavelet implementations after I had written this web page and developed the software. The Haar wavelet code is much simpler when expressed in the lifting scheme. See my web page The Wavelet Lifting Scheme. The link to the Java source download Web page is below. There are a variety of wavelet analysis algorithms. Different wavelet algorithms are appplied depending on the nature of the data analyzed. The Haar wavelet, which is used here is very fast and works well for the financial time series (e. g. the close price for a stock). Financial time series are non-stationary (to use a signal processing term). This means that even within a window, financial time series cannot be described well by a combination of sin and cos terms. Nor are financial time series cyclical in a predictable fashion (unless you believe in Elliot waves ). Financial time series lend themselves to Haar wavelet analysis since graphs of financial time series tend to jagged, without a lot of smooth detail. For example, the graph below shows the daily close price for Applied Materials over a period of about two years. Daily close price for Applied Materials (symbol: AMAT), 121897 to 123099. The Haar wavelet algorithms I have implemented work on data that consists of samples that are a power of two. In this case there are 512 samples. There are a wide variety of popular wavelet algorithms, including Daubechies wavelets, Mexican Hat wavelets and Morlet wavelets. These wavelet algorithms have the advantage of better resolution for smoothly changing time series. But they have the disadvantage of being more expensive to calculate than the Haar wavelets. The higer resolution provided by these wavlets is not worth the cost for financial time series, which are characterized by jagged transitions. The Haar wavelet algorithms published here are applied to time series where the number of samples is a power of two (e. g. 2, 4, 8, 16, 32, 64. ) The Haar wavelet uses a rectangular window to sample the time series. The first pass over the time series uses a window width of two. The window width is doubled at each step until the window encompasses the entire time series. Each pass over the time series generates a new time series and a set of coefficients. The new time series is the average of the previous time series over the sampling window. The coefficients represent the average change in the sample window. For example, if we have a time series consisting of the values v 0 . v 1 . v n . a new time series, with half as many points is calculated by averaging the points in the window. If it is the first pass over the time series, the window width will be two, so two points will be averaged: The 3-D surface below graphs nine wavelet spectrums generated from the 512 point AMAT close price time series. The x-axis shows the sample number, the y-axis shows the average value at that point and the z-axis shows log 2 of the window width. The wavelet coefficients are calcalculated along with the new average time series values. The coefficients represent the average change over the window. If the windows width is two this would be: The graph below shows the coefficient spectrums. As before the z-axis represents the log 2 of the window width. The y-axis represents the time series change over the window width. Somewhat counter intutitively, the negative values mean that the time series is moving upward Positive values mean the the time series is going down, since v i is greater than v i1 . Note that the high frequency coefficient spectrum (log 2 (windowWidth) 1) reflects the noisiest part of the time series. Here the change between values fluctuates around zero. Plot of the Haar coefficient spectrum. The surface plots the highest frequency spectrum in the front and the lowest frequency spectrum in the back. Note that the highest frequency spectrum contains most of the noise. The wavelet transform allows some or all of a given spectrum to be removed by setting the coefficients to zero. The signal can then be rebuilt using the inverse wavelet transform. Plots of the AMAT close price time series with various spectrum filtered out are shown here. Each spectrum that makes up a time series can be examined independently. A noise filter can be applied to each spectrum removing the coefficients that are classified as noise by setting the coefficients to zero. This web page shows a histogram analysis of the three highest frequency spectrum of the AMAT close price. The result of a filter that removes the points that fall within a gaussian curve in each spectrum is also shown. The gaussian curve has a mean and standard deviation of the coefficients in that spectrum. Another way to remove noise is to use thresholding. My web page outlining one thresholding algorithm can be found here. How do Haar wavelet filters compare to simple filters, like windowed mean and median filters A plot of the AMAT time series, filtered with a median filter (which in this case is virtually identical to a mean filter) is shown here here. These filters can be compared to the spectrum filters (where a given wavelet coefficient spectrum is filered out) here.. Whether a wavelet filter is better than a windowed mean filter depends on the application. The wavelet filter allows specific parts of the spectrum to be filtered. For example, the entire high frequency spectrum can be removed. Or selected parts of the spectrum can be removed, as is done with the gaussian noise filter. The power of Haar wavelet filters is that they can be efficiently calculated and they provide a lot of flexibility. They can potentially leave more detail in the time series, compared to the mean or median filter. To the extent that this detail is useful for an application, the wavelet filter is a better choice. The Haar wavelet transform has a number of advantages: It is conceptually simple. It is fast. It is memory efficient, since it can be calculated in place without a temporary array. It is exactly reversible without the edge effects that are a problem with other wavelet trasforms. The Haar transform also has limitations, which can be a problem for some applications. In generating each set of averages for the next level and each set of coefficients, the Haar transform performs an average and difference on a pair of values. Then the algorithm shifts over by two values and calculates another average and difference on the next pair. The high frequency coefficient spectrum should reflect all high frequency changes. The Haar window is only two elements wide. If a big change takes place from an even value to an odd value, the change will not be reflected in the high frequency coefficients. For example, in the 64 element time series graphed below, there is a large drop between elements 16 and 17, and elements 44 and 45. Since these are high frequency changes, we might expect to see them reflected in the high frequency coefficients. However, in the case of the Haar wavelet transform the high frequency coefficients miss these changes, since they are on even to odd elements. The surface below shows three coefficient spectrum: 32, 16 and 8 (where the 32 element coefficient spectrum is the highest frequency). The high frequency spectrum is plotted on the leading edge of the surface. the lowest frequency spectrum (8) is the far edge of the surface. Note that both large magnitude changes are missing from the high frequency spectrum (32). The first change is picked up in the next spectrum (16) and the second change is picked up in the last spectrum in the graph (8). Many other wavelet algorithms, like the Daubechies wavelet algorithm, use overlapping windows, so the high frequency spectrum reflects all changes in the time series. Like the Haar algorithm, Daubechies shifts by two elements at each step. However, the average and difference are calculated over four elements, so there are no holes. The graph below shows the high frequency coefficient spectrum calculated from the same 64 element time series, but with the Daubechies D4 wavelet algorithm. Because of the overlapping averages and differences the change is reflected in this spectrum. The 32, 16 and 8 coefficient spectrums, calculated with the Daubechies D4 wavelet algorithm, are shown below as a surface. Note that the change in the time series is reflected in all three coefficient spectrum. Wavelet algorithms are naturally parallel. For example, if enough processing elements exist, the wavelet transform for a particular spectrum can be calculated in one step by assigning a processor for every two points. The parallelism in the wavelet algorithm makes it attractive for hardware implementation. The Web page for downloading the Haar wavelet source code can be found here. This Java code is extensively documented and this web page includes a link to the Javadoc generated documentation. A simpler version of the Haar wavelet algorithm can be found via my web page The Wavelet Lifting Scheme. The plots above are generated with gnuplot for Windows NT. See my web page of Gnuplot links here. I am only marginally statisified with gnuplot. The software is easy to use and the Windows NT version comes with a nice GUI and a nice help system. However, when it comes to 3-D plots, the software leaves some things to be desired. The hidden line removal consumes vast amounts of virtual memory. When I tried to plot one of the coefficients surfaces with the x and z axes switched, it ran out of memory on a Windows NT system with 256K of virtual memory. Also, the surface would be much easier to understand if it could be colored with a spectrum. If you know of a better 3D plotting package that runs on Windows NT, please drop me a note. I have also had a hard time getting gnuplot to generate 2-D plots with multiple lines that have different colors. I have succeeded in doing this only when the data for each line was in a separate file, which can be awkward. I was sent the reference to Root by a physicist, Costas A. Root is a data analysis framework that is targeted at the massive amounts of data generated by high energy physics experiments at CERN and elsewhere. Although Root leans heavily toward physics, it looks to me like Root would be useful in other areas. Some of the statistical techniques that are used to analyze results in experimental physics is also used in quantitive finance, for example. Root has different goals than gnuPlot. It is targeted at a much more challenging data analysis enviroment (terabytes of data). But it has a large learning curve and Im skeptical if it can be easily used by those who do not have a sophisticated command of C. In contrast gnuPlot is a simple plotting environment. So my search for a better plotting environment continues. I know that such environments are supported by Matlab and Mathematics, but these packages are too expensive for my limited software budget. References Ripples in Mathematics: the Discrete Wavelet Transform by Jensen and la Cour-Harbo, 2001 So far this is the best book Ive found on wavelets. I read this book after I had spent months reading many of the references that follow, so Im not sure how easy this book would be for someone with no previous exposure to wavelets. But I have yet to find any easy reference. Ripples in Mathematics covers Lifting Scheme wavelets which are easier to implement and understand. The book is written at a relatively introductory level and is aimed at engineers. The authors provide implementations for a number of wavelet algorithms. Ripples also covers the problem of applying wavelet algorithms like Daubechies D4 to finite data sets (e. g. they cover some solutions for the edge problems encountered for Daubechies wavelets). Wavelets and Filter Banks by Gilbert Strang and Truong Nguyen, Wellesley Cambridge Pr, 1996 A colleague recommend this book, although he could not load it to me since it is packed away in a box. Sadly this book is hard to find. I bought my copy via abebooks, used, from a book dealer in Australia. While I was waiting for the book I read a few of Gilbert Strangs journal articles. Gilbert Strang is one of the best writers Ive encountered in mathematics. I have only just started working through this book, but it looks like an excellent, although mathematical, book on wavelets. Wavelets Made Easy by Yves Nievergelt, Birkhauser, 1999 This books has two excellent chapters on Haar wavelets (Chapter 1 covers 1-D Haar wavelets and Chapter 2 covers 2-D wavelets). At least in his coverage of Haar wavelts, Prof. Nievergelt writes clearly and includes plenty of examples. The coverage of Haar wavelets uses only basic mathematics (e. g. algebra). Following the chapter on Haar wavelets there is a chapter on Daubechies wavelets. Daubechies wavelets are derived from a general class of wavelet transforms, which includes Haar wavelets. Daubechies wavelets are better for smoothly changing time series, but are probably overkill for financial time series. As Wavelets Made Easy progresses, it gets less easy. Following the chapter on Daubechies wavelets is a discussion of Fourier transforms. The later chapters delve into the mathematics behind wavelets. Prof. Nievergelt pretty much left me behind at the chapter on Fourier transforms. For an approachable discussion of Fourier transforms, see Understanding Digital Signal Processing by Richard G. Lyons (below). As Wavelets Made Easy progresses, it becomes less and less useful for wavelet algorithm implementation. In fact, while the mathematics Nievergelt uses to describe Daubechies wavelets is correct, the algorithm he describes to implement the Daubechies transform and inverse transform seems to be wrong. Wavelets Made Easy does not live up to the easy part of its title. Given this and the apparent errors in the Daubechies coverage, I am sorry to say that I cant recommend this book. Save your money and buy a copy of Ripples in Mathematics . Discovering Wavelets by Edward Aboufadel and Steven Schlicker At 125 pages, this is one of the most expensive wavelet books Ive purchased, on a per page basis. It sells on Amazon for 64.95 US. I bought it used for 42.50. If Discovering Wavelets provided a short, clear description of wavelets, the length would be a virtue, not a fault. Sadly this is not the case. Discovering Wavelets seems to be a book written for college students who have completed calculus and linear algebra. The book is heavy on theorms (which are incompletely explained) and very sort on useful explaination. I found the description of wavelets unnecessarily obscure. For example, Haar wavelets are described in terms of linear algebra. They can be much more simply described in terms of sums, differences and the so called pyramidal algorithm. While Discovering Wavelets covers some important material, its coverage is so obscure and cursory that I found the book useless. The book resembles a set of lecture notes and is of little use without the lecture (for their students sake I hope that Aboufadel and Schlicker are better teachers than writers). This is a book that I wish I had not purchased. Wavelet Methods for Time Series Analysis by Donald B. Percival and Andrew T. Walden, Cambridge University Press, 2000 Im not a mathematician and I dont play one on television. So this book is heavy going for me. Never the less, this is a good book. For someone with a better mathematical background this might be an excellent book. The authors provide a clear discussion of wavelets and a variety of time series analsysis techniques. Unlike some mathematicians, Percival and Walden actually coded up the wavelet algorithms and understand the difficulties of implementation. They compare various wavelet families for various applications and chose the simplest one (Haar) in some cases. One of the great benifits of Wavelet Methods for Time Series Analysis is that it provides a clear summary of a great deal of the recent research. But Percival and Walden put the research in an applied context. For example Donoho and Johnstone published an equation for wavelet noise reduction. I have been unable to find all of their papers on the Web and I have never understood how to calculate some of the terms in the equation in practice. I found this definition in Wavelet Methods . The World According to Wavelets: The Story of a Mathematical Technique in the Making by Barbara Burke Hubbard, A. K. Peters, 1996 This book provides an interesting history of the development of wavelets. This includes sketches of many of the people involved in pioneering the application and mathematical theory behind wavelets. Although Ms. Hubbard makes a heroic effort, I found the explaination of wavelets difficult to follow. The Cartoon Guide To Statistics by Larry Gonic and Woollcott Smith, Harper Collins I work with a number of mathematicians, so its a bit embarrassing to have this book on my disk. I never took statistics. In college everyone I knew who took statistics didnt like it. Since it was not required for my major (as calculus was), I did not take statistics. Ive come to understand how useful statistics is. I wanted to filter out Gaussian noise, so I needed to understand normal curves. Although the title is a bit embarrassing, The Cartoon Guide to Statistics provided a very rapid and readable introduction to statistics. Understanding Digital Signal Processing by Richard G. Lyons. This book is fantastic. Perhaps the best introductory book ever written on digital signal processing. It is the book on signal processing for software engineers like myself with tepid mathematical backgrounds. It provides the best coverage Ive ever seen on DFTs and FFTs. In fact, this book has inspired me to try FFTs on financial time series (an interesting experiment, but wavelets produce better results and Fourier transforms on non-stationary time series). See my web page A Notebook Compiled While Reading Understanding Digital Signal Processing by Lyons My web page on the wavelet Lifting Scheme. The Haar wavelet algorithm expressed using the wavelet Lifting Scheme is considerably simpler than the algorithm referenced above. The Lifting Scheme also allows Haar wavelet to be extended into a wavelet algorithms that have perfect reconstruction and have better multiscale resolution than Haar wavelets. Emil Mikulic has published a simple explaination of the Haar transform, for both 1-D and 2-D data. For those who find my explaination obscure, this might be a good resource. The Wavelet Tutorial . The Engineers Ultimate Guide to Wavelet Analysis, by Robi Polikar. The ultimate guide to wavelet analysis has yet to be written, at least for my purposes. But Prof. Polikars Wavelet Tutorial is excellent. When it comes to explaining Wavelets and Fourier transforms, this is one of the best overviews Ive seen. Prof. Polikar put a great deal of work into this tutorial and I am greateful for his effort. However, there was not sufficient detail in this tutorial to allow me to create my own wavelet and inverse wavelet tranform software. This Web page (which is also available in PDF) provides a nice overview of the theory behind wavelets. But as with Robi Polikars web page, its a big step from this material to a software implementation. Whether this Web page is really friendly depends on who your friends are. If you friends are calculus and taylor series, then this paper is for you. After working my way through a good part of Wavelets Made Easy this paper filled in some hole for me. But I would not have understood it if I had read it before Wavelets Made Easy . Wim Sweldens, who has published a lot of material on the Web (he is the editor of Wavelet Digest ) and elsewhere on Wavelets is a member of this group. An interesting site with lots of great links to other web resources. Lifting Scheme Wavelets Win Sweldens and Ingrid Daubechies invented a new wavelet technique known as the lifting scheme . Gabriel Fernandez has published an excellent bibliography on the lifting scheme wavelets which can be found here. This bibliography has a pointer to Wim Sweldens and Peter Schroders lifting scheme tutorial Building Your Own Wavelets at Home . Clemens Valens has written a tutorial on the fast lifting wavelet transform. This is a rather mathematically oriented tutorial. For many, Wim Sweldens paper Building Your Ownh Wavlets at Home may be easier to under stand (although I still found this paper heavy going). Gabriel Fernandez has developed LiftPack . The LiftPack Home Page publishes the LiftPack software. The bibliography is a sub-page of the LiftPack Home page. Wavelets in Computer Graphis One of the papers referenced in Gabriel Fernandezs lifting scheme bibliography is Wim Sweldens and Peter Schroders paper Building Your Own Wavelets at Home . This is part of a course on Wavelets in Computer Graphics given at SigGraph 1994, 1995 and 1996. The sigGraph course coverd an amazing amount of material. Building Your Own Wavelets at Home was apparently covered in a morning. There are a lot of mathematically gifted people in computer graphics. But even for these people, this looks like tough going for a morning. Ive spent hours reading and rereading this tutorial before I understood it enough to implement the polynomial interpolation wavelets that it discusses. D. Donoho De-Noising By Soft-Thresholding . IEEE Trans. on Information Theory, Vol 41, No. 3, pp. 613-627, 1995. D. Donoho Adapting to Unknown Smoothness via Wavelet Shrinkage . JASA. 1995. CalTech Multi-Resolution Modeling Group Publications The Wavelets in Computer Graphics page, referenced above, is one of the links from the CalTech Multi-resolution Modeling Group Publications web page. The wavelet publications referenced on this page concentrate on wavelet applications for computer graphics. This is yet another introductory tutorial by a mathematician. It gives a feeling for what you can do with wavelets, but there is not enough detail to understand the details of implementing wavelet code. Amara Graps web page provides some good basic introductory material on wavelets and some excellent links to other Web resources. There is also a link to the authors (Amara) IEEE Computational Sciences and Engineering article on wavelets. Wave from Ryerson Polytechnic University Computational Signals Analysis Group Wave is a C class library for wavelet and signal analysis. This library is provided in source form. I have not examined it in detail yet. Wavelet and signal processing algorithms are usually fairly simple (they consist of a relatively small amount of code). My experience has been that the implementation of the algorithms is not as time consuming as understanding the algorithms and how they can be applied. Since one of the best ways to understand the algorithms is to implement and apply them, Im not sure how much leverage Wave provides unless you already understand wavelet algorithms. Wavelet Compression Arrives by Peter Dyson, Seybold Reports, April 1998. This is an increasingly dated discussion on wavelet compression products, especially for images. The description of the compression products strengths and weaknesses is good, but the description of wavelets is poor. Prof. Zbigniew R. Struzik of Centrum voor Wiskunde en Informatica in the Netherlands has done some very interesting work with wavelets in a variety of areas, including data mining in finance. This web page has a link to Prof. Struziks publications (at the bottom of the Web page). Prof. Struziks work also shows some interesting connections between fractals and wavelets. Disclaimer This web page was written on nights and weekends, using my computer resources. This Web page does not necessarily reflect the views of my employer (at the time this web page was written). Nothing published here should be interpreted as a reflection on any techniques used by my employer (at that time). Ian Kaplan, July 2001 Revised: February 2004Calculate Moving Average Posted on April 28th, 2009 in Learn Excel - 191 comments Moving average is frequently used to understand underlying trends and helps in forecasting. MACD lub rozbieżność średniej ruchomej jest prawdopodobnie najczęściej stosowanym narzędziem analizy technicznej w handlu akcjami. W wielu firmach dość często stosuje się średnią kroczącą z 3-miesięcznej sprzedaży, aby zrozumieć, jaki jest trend. Dzisiaj dowiemy się, jak obliczyć średnią kroczącą i jak średnią z ostatnich 3 miesięcy można obliczyć za pomocą formuł Excel. Oblicz średnią ruchomą Aby obliczyć średnią ruchomą, wystarczy dobra stara funkcja AVERAGE excel. Zakładając, że twoje dane mieszczą się w przedziale B1: B12, wpisz tę formułę w komórce D3 ŚREDNIA (B1: B3) A teraz skopiuj formułę z D3 do zakresu D4 do D12 (pamiętaj, ponieważ obliczasz średnią kroczącą z 3 miesięcy , dostaniesz tylko 10 wartości 12-31). To wszystko, czego potrzebujesz do obliczenia średniej ruchomej. Oblicz średnią ruchomą z ostatnich 3 miesięcy Alone Powiedzmy, że musisz obliczyć średnią z ostatnich 3 miesięcy w dowolnym momencie. Oznacza to, że po wprowadzeniu wartości na następny miesiąc średnia powinna zostać automatycznie dostosowana. Najpierw przyjrzyjmy się formule, a następnie zrozumiemy, jak to działa. Więc co do cholery powyższa formuła robi tak czy inaczej Liczenie, ile miesięcy zostało już wpisanych 8211 COUNT (B4: B33) Następnie jest to zliczanie minus 3 komórki z B4 i pobieranie z nich 3 komórek 8211 PRZESUNIĘCIE (B4, COUNT (B4) : B33) -3,0 ,3,1). To tylko ostatnie 3 miesiące. W końcu jest przekazywanie tego zakresu do funkcji ŚREDNIA w celu obliczenia średniej ruchomej z ostatnich 3 miesięcy. Praca w domu Teraz, gdy nauczyłeś się obliczać średnią ruchomą przy użyciu Excela, oto Twoja praca domowa. Powiedzmy, że chcesz, aby liczba miesięcy używanych do obliczenia średniej ruchomej była konfigurowalna w komórce E1. tj. gdy E1 zostanie zmieniony z 3 na 6, średnia ruchoma tabela powinna obliczać średnią ruchomą przez 6 miesięcy na raz. Jak piszesz formuły, a następnie spójrz na komentarze, idź i wymyśl to dla siebie. Jeśli nie możesz znaleźć odpowiedzi, wróć tutaj i przeczytaj komentarze. Go Ten wpis jest częścią naszej serii Spreadcheats. 30-dniowy program szkoleniowy online dla biur i użytkowników arkuszy kalkulacyjnych. Dołącz dziś . Podziel się tą radą ze swoimi przyjaciółmi Witaj, niedawno znalazłeś swoją stronę internetową i kocham wszystkie wskazówki. Dziękuję za wszystkie tutoriale. Dokładnie go potrzebowałem, jednak natrafiłem na pewien problem, ponieważ używam Vlookup with Offset. Na przykład w twoim przykładzie używałbym Vlookup w moim szablonie, więc co miesiąc dodawałem nowe dane, automatycznie aktualizował dane sprzedaży każdego miesiąca. Mój problem jest w mojej formule OFFSET, mam COUNTA, która oczywiście liczy dowolne komórki z formułami, nawet. Wszelkie pomysły na lepsze wykorzystanie tych dwóch funkcji, szczególnie gdy staram się wykreślić i uśrednić to ostatnie 12 miesięcy. Byłbym wdzięczny za wszelkie pomysły, które ty lub twoi czytelnicy posiadacie. Jeszcze raz dziękuję za wspaniałą stronę Twee. witamy w PHD i dziękujemy za pytanie. Nie jestem pewien, czy zrozumiałem to poprawnie. Czy próbowałeś używać count zamiast counta Nie pokazałeś nam wzoru offsetu, nie patrząc na to, że naprawienie go byłoby trudne. Muszę obliczyć 12-miesięczną średnią kroczącą, która będzie obejmowała okres 24 miesięcy po jej zakończeniu. Czy możesz wskazać mi właściwy kierunek, a także, jak zacząć? Moje dane to mile osobowe i zaczynają się na B2, a kończą na B25. Pomóż Chandoo, jest to świetna formuła dla tego, czego używam, ale próbuję bezskutecznie, aby formuła była warunkowa. Mam arkusz kalkulacyjny, zobacz linki poniżej, które śledzi wszystkie rundy gry w golfa na dyskach granych przez znajomych i mnie. Mam już skonfigurowane obliczanie każdej z naszych średnich średnich i każdej z naszych średnich na poszczególnych kursach. Próbuję teraz jednak ustawić średnią ruchomą w oparciu o 5 ostatnich rund. Po wprowadzeniu kolejnych danych zmienię go na 10, ale na razie 5 będzie dobrze. Mogę zmusić średnią ruchomą do działania, ale nie wiem, jak dodać ograniczenia warunkowe. IE Chcę na przykład tylko 5 ostatnich rund granych przez Kevina. Potem będę chciał tylko 5 ostatnich rund granych przez Kevina na trasie Oshtemo. Kod Im using znajduje się poniżej. Kod dla komórki C9 znajduje się poniżej. IF (B90,, IF (B9lt6, AVERAGEIF (DiscRoundsA2: A20000, A9, DiscRoundsM2: M20000), AVERAGE (OF FSET (DiscRoundsM2, IF (DiscRoundsA2: A20000A9, COUNT (DiscRoundsM2: M20000), quotquot) -5,0,5 , 1)))) Zasadniczo, jeśli jest 0 rund, pozostawia puste pole komórki. Jeśli jest 5 lub mniej rund, po prostu używa średniej wszystkich rund. Na koniec, jeśli jest 6 lub więcej rund, kod wykorzystuje twoją funkcję ŚREDNIA z tego postu. Po wypróbowaniu wielu rzeczy nie mam jednak pewności, jak warunkowo wyciągnąć ostatnie 5 rund, tak aby pociągał tylko 5 ostatnich rund osoby nazwanej w komórce A9. Formuła, do której się odwołuję NIE jest obecnie w komórce C9 w moim arkuszu kalkulacyjnym, który jest połączony. Właśnie testowałem to tam. DND: użyj następującej formuły w komórce C13 ŚREDNIA (B2: B13) i przeciągnij w dół. Cześć, jestem pewien, że jest coś wymienionego powyżej, co ma pomóc, ale jestem wciąż nowy, aby celować i czuję się przytłoczony. Właśnie dostałem nową pracę i staram się wywrzeć dobre wrażenie, więc jakakolwiek pomoc będzie wspaniała, mam dane za każdy miesiąc w 2009, 2017 i 2017 roku oraz wiele wierszy tego. Co miesiąc na początku miesiąca muszę obliczyć sprzedaż z poprzedniego roku. Obecnie moja formuła to SUMA (AG4: AR4) SUMA (U4: AF4). Przykład: bieżący miesiąc to marzec. Potrzebuję informacji o łącznej sprzedaży w okresie od marca 2017 r. Do lutego 2017 r. Podzielonej na okres od marca 2009 r. Do lutego 2017 r. I działa ona świetnie, ale jej zajęcie jest zbyt czasochłonne, aby można było ją zmieniać co miesiąc. Czy istnieje sposób, w jaki mogę uzyskać wzór do automatycznej zmiany na początku miesiąca Nie wiem, czy wykonałem bardzo dobrą pracę wyjaśniając to, czy nie. Gratuluję nowej pracy. Możesz przeciągnąć swoją formułę na bok (na przykład na prawo) i automatycznie pokazuje s na następny miesiąc. Nie, potrzebuję, aby formuła zmieniała się co miesiąc. Mam od stycznia 2009 r. Do grudnia 2017 r. Pola zawierające dane w nich zawarte. IFERROR (SUMA (AG4: AR4) SUMA (U4: AF4), 0) W następnym miesiącu potrzebuję go od obliczenia sumy danych 0310 do danych 0211 podzielonych przez dane 0309 na dane 0210 i przejścia na dane od 0410 do 0311 podzielone przez 0409 danych do 0311 danych. IFERROR (SUMA (AH4: AS4) SUMA (V4: AG4), 0) Potrzebuję formuły, która może odnosić się do bieżącej daty i wiedzieć, że pierwszego dnia każdego miesiąca musi zmienić formuły na następną. poprzednie 1-12 miesięcy podzielone przez poprzednie 13-24 miesiące. Nie jestem pewien, czy to ma sens. Zasadniczo używam tej formuły około 8 razy na jednym arkuszu i mam około 200 arkuszy. Przepraszamy za podwójną księgę i dziękuję za gratulacje. Co jest mi potrzebne: Jeśli aktualna data jest większa niż 1 w miesiącu, wówczas cała komórka odwołuje się do obliczenia sprzedaży z poprzedniego roku musi przesunąć się w prawo o jedną kolumnę. co wymyśliłem. IF (P1gtN1, (SUMA (AH4: AS4) SUMA (V4: AG4))) p1 jest bieżącą datą n1 to 1 dzień miesiąca AH4: AS4 to dane z 0310-0211 V4: AG4 to dane z 0309-0210 Część Im mające problemy z: Jak to zrobić, aby formuła dokładnie wiedziała, co 12 sekcji do pobrania i jak automatycznie zmienić na 1 dzień miesiąca. Julie. Możesz użyć formuły OFFSET, aby rozwiązać ten problem. Zakładając, że każda kolumna ma jeden miesiąc, a pierwszy miesiąc jest w C4, a aktualna data jest w P1. Powyższa formuła zakłada, że ​​każda kolumna ma miesiące w formacie daty Excel. Możesz go ulepszyć, aż uzyska właściwy rezultat. Jest to prawdopodobnie bardzo proste i robię to bardziej skomplikowanym niż potrzebuję, ale napisałeś, Powyższa formuła zakłada, że ​​każda kolumna ma miesiące w formacie daty Excel. Starałem się to zrobić, nie zmieniając moich danych w daty. Julie. Chodziło mi o to, że wiersz nr 4, w którym masz nazwy miesięcy, powinien zawierać te dane - 1 stycznia 2009 r. 1 lutego 2009 r. 1 marca 2009 r. Ponadto zauważam kilka błędów w mojej formule. Prawidłowy wzór powinien być: SUMA (przesunięcie (C5,, datedif (C4, P1, m) 1-12,1,12)) SUMA (przesunięcie (C5,, datedif (C4, P1, m) 1-24,1 , 12)) Powyższa formuła zakłada, że ​​daty znajdują się w wierszu 4, a wartości w wierszu 5. Myślę, że dokładnie to, czego potrzebowałem. Dziękuję, dziękuję, dziękuję bardzo. Mój problem to bardzo podobne jaśminy (61) i Azrold (74). Mam obrzydliwe ilości danych, od D: 2 do D: 61400 (i odpowiednio w E i F, ILE muszą zrobić to samo również w tych kolumnach). Próbuję znaleźć średnią dla partii, tak aby D2: 19, D20: 37, D38: 55 itd. - zbijając 18 rzędów razem, a następnie znajdując następną średnią bez ponownego użycia jakiegokolwiek poprzedniego wiersza. Prawdopodobnie muszę to zrobić również na każde 19 i 20 kępek, ale przykład użycia 18 jest w porządku. Czy mógłbyś opisać formułę, którą opublikujesz? Jestem trochę zdezorientowany, co oznaczają ostatnie 4 cyfry w części COUNTA. Dziękuję bardzo, dzięki temu moje życie będzie o wiele łatwiejsze. Laura Łatwo to zrobić przy pomocy średniej i przesunięcia. Zakładając, że robisz to w Col J i uśredniasz Col D J2: AVERAGE (OFFSET (D1, (ROW () - 2) J11,, J1)) Gdzie J1 będzie miał numer 18 dla poruszającego się łącznie 18 liczb Kopiuj w dół Wiersz 2 będzie średnia Wiersze 2-19 Wiersz 3 będzie średnia wiersze 20-37 itp. Możesz także dodać etykiety na przykład Col H H2: Rows amp (ROW () - 2) J12amp - amp (ROW () - 1) J11 Kopiuj w dół. Kpiłem sobie z tego: rapidsharefiles1923874899Averages. xlsx Jestem początkujący, próbując: 1. zbudować arkusz kalkulacyjny, który posłuży mi do 2. określenia optymalnego okresu dla mojej średniej kroczącej, w zakresie 5-dniowej średniej kroczącej do 60 średnia dnia ruchu. Każda komórka reprezentuje liczbę sprzedaży dla tego dnia, od 0 do 100. Wolałbym, aby każdy miesiąc codziennej sprzedaży był w nowej kolumnie. Obecnie mam 3 miesiące danych, ale oczywiście będzie to rosło. Czy możesz mi powiedzieć, jak skonfigurować arkusz kalkulacyjny, a następnie odpowiednie formuły (i ich lokalizacje) Bardzo Ci dziękuję, Cześć, znowu Hui, jeszcze raz walczę z tym samym arkuszem kalkulacyjnym, który pomógł mi wcześniej. Jako, że mam następujące wiersze miesięcznie ręcznie wprowadzane dane: Ilość połączeń Połączenia odrzucono wiek odrzuconych połączeń Średni czas obsługi Mój menedżer liniowy chciałby teraz 2 wiersze poniżej tych pokazano (za pomocą formuły): Średnia prędkość odpowiedzi Średnia czas porzucony I jakby to było za mało, chciałaby, dla obu wierszy, podsumowującą komórkę pod koniec 12 miesięcy, pokazującą roczną liczbę :( Wielkie dzięki za pomoc, którą możesz dać, używam wersji pionowej dla obliczenia średniej ruchomej Jestem zaskoczony, gdy muszę obliczyć średnią kroczącą z 6 okresów Moje dane zaczynają się w kolumnie c, a średnie z 6 i 3 okresów są dwiema kolumnami z prawej strony ostatniego okresu danych. dodaj kolumnę dla każdego miesiąca, więc obecnie dostosowuję formułę ręcznie co miesiąc: ŚREDNIA (EC8: EH8) Moja ostatnia próba (która nie powiodła się) to: ŚREDNIA (C6, COUNT (C6: EH6), - 6,6,1 ) Proszę podać wyjaśnienie, dlaczego to nie zadziałało podczas udzielania odpowiedzi, więc mogę zrozumieć, jak stworzyć przyszłe f ormulas. Dziękuję bardzo, Kimber Kimber. Witaj na Chandoo. org i dziękuję za komentowanie. Myślę, że nie jest dobrym pomysłem umieszczanie średnich w prawej kolumnie, ponieważ ciągle się porusza. Zamiast tego możesz zmodyfikować arkusz tak, aby średnia ruchoma znajdowała się po lewej stronie najbardziej kolumny (i pozostanie tam nawet po dodaniu dodatkowych kolumn po prawej stronie). Bez względu na to, gdzie znajduje się średnia komórka, możesz użyć tej formuły do ​​obliczenia średniej ruchomej. Afyter po przeczytaniu całego tego wątku widzę, że będę potrzebował kombinacji offsetu, dopasowania, count i averageif, ale nie jestem pewien gdzie. Mój problem wygląda następująco: każdego miesiąca zgłaszanych jest ponad 100 osób - kolumna A to ich nazwa, kolumna B to miesiąc, kolumna C to rok, a kolumny od D do M to ich aktywność w kilku kategoriach. Muszę znaleźć ich średnie z trzech miesięcy i sześciu miesięcy i wyświetlić je w innym arkuszu, chociaż mógłbym je wyświetlić w kolumnach N i O, jeśli to konieczne. Używam tabeli przestawnej do generowania sum i średnich całkowitych, ale nie obsługuję średnich kroczących. Wszelkie wskazówki byłyby bardzo mile widziane. Dzięki, Ben To uśredni ostatnią liczbę MovAvg wierszy, w tym samej siebie (usuń -1, jeśli chcesz, żeby się nie zawierał). D75 to komórka, do której odwołuje się ta formuła (moje dane były bardzo długie) MovAvg jest tym, jak dużą chcesz średnią ruchomą (przypisałem to jako nazwaną komórkę (wybierz komórkę, Formulas --gt Defined Names --gt Define Nazwa) Możesz tworzyć nazwy zmiennych w arkuszu kalkulacyjnym, aby uniknąć zawsze konieczności użycia kolumny wiersza.) To zaczyna się od bieżącej komórki (w tym przypadku D75), przechodzi w górę wierszy MovAvg-1, na 0 kolumn, wybiera MovAvg liczbę wierszy, z 1 kolumna. Przekazuje to średniej funkcji. Cześć Czytałem każdy post, ale nie udało mi się uzyskać tego działa poprawnie. Jak obliczyć średnią kroczącą procenty To oblicza się co tydzień. Kolumna A - accts met Kolumna B - sprzedane sale Kolumna K - zamykająca kolumna D - 2 tygodniowa średnia krocząca zamknięcia Przykład tygodnia 1 i tygodnia 2 Kolumna A, wiersz 7 to 25, a wiersz 8 to 1 Kolumna B, wiersz 7 to 1 a wiersz 8 to 1 kolumna K, wiersz 7 to 125 (4), a wiersz 8 to 11 (100) Kolumna D - Formuła w poprzednim poście daje odpowiedź 52 2 tygodniową średnią, ale to nie jest poprawne. powinno być 226 (7) IF (ISERROR (AVERAGE (OFFSET (K7, COUNT (K7: K26) -2,0 ,2,1))), AVERAGE (OFFSET (K7, COUNT (K7: K26) -2 , 0,2,1))) Co muszę zmienić w tym formularzu, aby użyć kolumn A amp B zamiast kolumny K Próbujesz uśredniać średnie, które nie działa. Wypróbuj tę prostą formułę zaczynającą się w D8: IF (ISBLANK (B8) ,, (B7B8) (A7A8)) Skopiuj i wklej formułę do D26. To powinno dać ci średnią 2-tygodniową. Pamiętaj, aby sformatować kolumnę D jako procent z liczbą dziesiątych miejsc. Jestem bardzo dobrym neofitą. Po prostu natknąłem się na twoją witrynę i nie mogę się doczekać, aby ją dokładnie przeczytać w nadchodzących miesiącach. Próbuję obliczyć 3 miesięczną średnią ruchomą kosztów amp nie może dowiedzieć się, co robię źle. Nawet po przeczytaniu tego artykułu i posta na offset nie jestem pewien, czy rozumiem formułę. W mojej piaskownicy mam: Kolumna A - Miesiące A2: A17Sept 2017 - Grudzień 2017 Kolumna B - Całkowite miesięczne wydatki B2: B8 (B8 ponieważ marzec jest ostatnim zakończonym miesiącem) - Te sumy wynoszą 362599,372800,427317,346660,359864 , 451183,469681 Colum C - 3 miesięczna średnia ruchoma. Wstawiłem następującą formułę w C4 (Aby rozpocząć obliczanie w listopadzie zeszłego roku, tylko dla uśmiechów). Ponieważ w danym zestawie danych są tylko trzy miesiące, zakładam, że oblicza średnią kroczącą z pierwszych trzech miesięcy. Formuła zawiera 469,681. Kiedy średnio przez pierwsze trzy miesiące, wymyślam 387.572. Co robię źle lub nieporozumienie Dzięki za pomoc i za stworzenie tej strony razem. Cześć Chandoo Masz tutaj jeden naprawdę przydatny projekt, mnóstwo podziękowań Na samym początku tego wątku Shamsuddin zapytał o coś podobnego do tego, czego potrzebuję, odwracając obliczenia wartości od średniej ruchomej. Może to głupie, ale nie mogę wymyślić żadnych pomysłów, z wyjątkiem wyszukiwania figur po literze. Jeśli to możliwe - zapoznaj się z tymi artykułami, aby uzyskać koncept. Właściwie, byłbym szczęśliwy otrzymując cokolwiek, bo google było bezużyteczne) Jeszcze raz - dziękuję bardzo za tę stronę Nie jestem naprawdę pewien, co masz na myśli przez odwrotne obliczanie średniej ruchomej Czy możesz wyjaśnić, co próbujesz zrobić, wysyłając próbkę plik może również pomóc Zobacz: chandoo. orgforumstopicposting-a-sample-workbook Hi Hui, mam na myśli, mam kolumnę z liczbami (np. miesięczne przesyłki), które są obliczane jako średnia ruchoma w oparciu o inny zestaw danych (np. miesięczny wynik produkcji) . Coś takiego: (A1) Jan Feb Mar Kwi Maj Jun Mfg Statek 100 500 450 600 600 700 Tam, gdzie średnia dla statku (B2: C2) Znam tylko wolumeny przesyłek, i muszę znaleźć odpowiednie objętości MFC. Ogólnie rzecz biorąc, pytanie brzmi: w jaki sposób możemy znaleźć dane początkowe tylko z MA na ręce Przypuśćmy, że ten wątek może nie być tym, który zadaje to pytanie (jeśli się zgadzasz - być może wiesz, gdzie zapytać). To właśnie pytanie Shamsuddinsa było najbardziej trafnym wynikiem spośród 10 stron google Mey Aby obliczyć oryginalne dane z średniej ruchomej (MA), potrzebujesz dwóch MA, np. 9 i 10 dni MA lub 1 MA i 1 fragment danych. możesz ponownie obliczyć poprzedni wynik, ale jeśli masz formułę Średnia (B2: C2), powinieneś mieć dostęp do danych Jeśli jest to 2-dniowe MA jak twoja formuła powyżej MAAverage (B2: C2) MA (B2C2) 2, jeśli wiesz B2 C2 (2MA) - B2 Jeśli masz zestaw danych, którymi możesz się podzielić, mogę dać lepsze rozwiązanie. Zobacz: chandoo. orgforumstopicposting-a-sample-workbook Świetna strona internetowa. Wybacz to pytanie. Kiedyś byłem ekspertem w Lotus 123 dekady temu, ale uważam, że Excel nieco cofa się w swoich progresjach do Lotus 123, dlatego zaczynam od nowa z Excelem 2017. Jestem osobą logiczną i próbuję zrozumieć, co robią te formuły, kiedy Użyj ich. Zauważam, że w kolumnie B jest tylko 14 liczb sprzedaży, ale jakoś liczymy od B4 do B33. Przetestowałem formułę za pomocą: ŚREDNIA (OFFSET (B4, COUNT (B4: B14) -3,0 ,3,1)) i otrzymuję taki sam wynik, jak gdybym użył ŚREDNIEJ (OFFSET (B4, COUNT (B4: B33) ) -3,0 ,3,1)). Moją pierwszą zasadą tworzenia szkolnego arkusza kalkulacyjnego nigdy nie jest tworzenie tabeli danych większej niż dostarczone dane, jeśli jest ona statyczna (czyli nie rozwija się w danych). W rezultacie nie mam prawdziwej wskazówki, jak działa OFFSET. Czy istnieje wyraźne wytłumaczenie OFFSET z pojedynczym przykładem użycia go poza średnią i samą w sobie Powodem, dla którego tu przybyłem, jest zbudowanie modelu arkusza kalkulacyjnego, który wykorzystywałby iteracyjne obliczenia w celu znalezienia najlepszego dopasowania do danych o zysku (czyli maksymalizacja zysku), gdy krótka średnia krocząca skumulowanej krzywej zysku (lub krzywej kapitałowej) przekracza PONIŻEJ długoterminową średnią ruchomą krzywej kapitału własnego. Nie znajduję nic, co pozwala na rozwinięcie średnich ruchomych z 3 okresów na 100 okresów (dla obu średnich). Używając MA przekierowania, aby określić, które transakcje podjąć, można znaleźć optymalny poziom zysku, na którym można uruchomić model (który może zostać zmodyfikowany, gdy model zostanie ponownie zoptymalizowany). Nie mogę znaleźć niczego w większości książek Excela, które to opisują, a tego rodzaju obliczenia powinny być stosunkowo proste do wykonania. Gdzie mogę znaleźć takie informacje Jeszcze raz dziękuję za wspaniałą stronę internetową. Na wszelki wypadek, gdy jeszcze go nie znalazłeś, jest link do funkcji OFFSET: Mam pytanie. Mam już 3-dniową średnią ruchomą, którą dostałem w moim problemie. Czy jest to związane ze średnią zasobów. Pytania mówią, że masz 1 zapas, który PLANujesz na sprzedaży w dniu 10. Moja średnia ruchoma na 3 dni to integracja z a, b gdzie na i bt3 w dowolnym momencie. Jeśli chcesz znaleźć cenę, za którą chcesz sprzedać swój udział, zintegruj z 6,9 9 11 7,10. Czy chcesz zakończyć koniec dnia 10, w połowie dnia 10, czy też wyjść z dnia 10, nie jestem pewien, w jakim przedziale czasu umieścić średnią między 3 dniami. Ponownie, moja funkcja reprezentuje do 14 dnia, ale potrzebuję ceny w dniu 10. Ivan Santos mówi: Zamierzam zobaczyć średnią ruchomą dla call center. Próbuję znaleźć indeks dla każdego miesiąca przez cały rok. Mam tylko 2 lata wartości danych i chcę, aby prognoza na 2017 rok w kwartałach. czy mogę użyć tej metody do tego mam problem średnio, chcę obliczyć średnią podświetlonych wierszy tylko w coloumn F na colomn G który również podświetlił puste komórki Hi, pracuję nad arkuszem kalkulacyjnym, który ma ostatnie cztery lata tygodniowych danych, ale dane z bieżących lat są niekompletne, ponieważ są wprowadzane tylko co tydzień. Czy istnieje sposób na skonfigurowanie formuły, która obliczy średnią na podstawie liczby tygodni, które zawierają w nich dane Na przykład. w połowie roku utworzy średnią opartą na komórkach 2-27 26, ale w przyszłym tygodniu będzie to komórka 2-28 27. Robi mi się w głowie i nie chcę ręcznie korygować średniej co tydzień. Świetna strona przy okazji Bardzo pomocna. ) Rosie Tak, to da się zrobić Czy możesz zadać pytanie na forum i załączyć przykładowy plik chandoo. orgforum Ok, tutaj jest moje pytanie, które dręczy mnie przez ostatnie 2 12 miesięcy i nie znalazłem rozwiązania nigdzie w sieci : Mam zespół sprzedawców i potrzebuję ruchomej średniej, ale z poprawionym formatem i zmienną randkową wściekłością, która jest również poprawiona. tj. sprzedawca 1115 2115 3115 12114 11114 10114 ME 1 2 0 4 5 6 Co próbuję zrobić, to: Powiedzmy, że dzisiaj jest 3115. Potrzebuję sposobu na powrót 3 (6 i 12 również) miesięcy z obecnego data i średnia liczba sprzedaży. Najtrudniejsze jest to, że chciałbym po prostu zmienić rok dat, więc nie mam problemu z formatem lub jeśli zatrudniam (strzelam) kogoś. Tak więc w powyższym przykładzie miałbym formułę wziąć 6 1 2 (9) 3 3, ale wtedy, gdy nadejdzie czas, to będzie dalej, ale gdy nowy rok zacznie się w JAN 2018, będzie musiał użyć liczb z przeszłości Dane z 2018 r. (Trwające 3,6 i 12 miesięcy). Mam nadzieję, że to jasne i bardzo chciałbym uzyskać pomoc w tej sprawie. Z góry dziękuję. Czy możesz zadać pytanie na forach Chandoo. org na: forum. chandoo. org Załącz przykładowy plik, aby uprościć proces Ok Wrzuciłem na fora i przesłałem przykładowy plik. 8230 Obliczanie średniej ruchomej Chandoo. org 8211 Dowiedz się Średnia ruchoma jest często używana do zrozumienia podstawowych trendów i pomaga w prognozowaniu. MACD lub średnia ruchoma rozbieżność zbieżności jest prawdopodobnie 8230 Amelia McCabe mówi: Szuka małej pomocy. Próbowałem, jak sądzę, zmodyfikowanej wersji tej formuły, która tak naprawdę nie działa. Mam szereg danych (jedna liczba na miesiąc), że potrzebuję ciągłej średniej na podstawie liczby miesięcy wprowadzonych danych, a nie w ciągu 12 miesięcy. Dane znajdują się w komórkach b53 do m53. Więc próbowałem zmodyfikować tę formułę w następujący sposób (nie zadziałało) i zastanawiam się, czy mogę w ogóle korzystać z tej formuły, ponieważ moje dane są w wierszu, a nie w kolumnie. AVERAGE (OFFSET (B53COUNT (B53: M53) -1, 2, 21, 12)). Próbowałem również argumentów jako 0,0, 1, 12 i -1,0,1,12. Proszę, pomóż mi zrozumieć, czy jestem w pełni zepsutym drzewem, czy tylko na niewłaściwej gałęzi. Amelia Nie widząc id danych sugeruje, że ŚREDNIA (OFFSET (B53, COUNT (B53: M53) -1, 2, 21, 12)) powinna wynosić: ŚREDNIA (PRZESUNIĘCIE (B53. 1, COUNT (B53: M53))) Jeden wydanie z oryginalną formułą jest to, że istnieje 12 komórek między B53: M53, jeśli tylko 5 ma w nich dane, to bierzesz 12, offset próbuje przesunąć B53, ujemne 7 kolumn, które wymuszą błąd Możesz również być w stanie używać funkcji Averageifs Prawdopodobnie: Averageifs (B53: M53, B53: M53,0) Czy możesz wysłać przykładowy plik na forach Chandoo. org forum. chandoo. org

No comments:

Post a Comment