Saturday 25 February 2017

Prognose Umsatz Nach Exponentiell Gewichtet Moving Averages Winter

Holt-Winters Prognose für Dummies (oder Entwickler) - Teil I Diese drei Teile schreiben Teil II Teil III ist mein Versuch, eine down-to-earth Erklärung (und Python-Code) der Holt-Winters-Methode für diejenigen von uns, die während Hypothetisch könnte ziemlich gut in Mathe sein, noch versuchen, es bei jeder Gelegenheit zu vermeiden. Ich musste in dieses Thema zu tauchen, während Basteln auf tgres (die Funktionen einer Golang Umsetzung). Und nachdem ich es etwas kompliziert (und doch so glänzend einfach) gefunden hatte, dachte es, daß es gut sei, dieses Wissen zu teilen und dabei hoffentlich auch in meinem Kopf zu erstarren. Dreifache Exponentialglättung. Auch als Holt-Winters-Verfahren bekannt, ist eine der vielen Methoden oder Algorithmen, die zur Prognose von Datenpunkten in einer Reihe verwendet werden können, vorausgesetzt, dass die Reihe saisonal, d. h. Ein wenig Geschichte xponentielle Glättung in irgendeiner Form stammt aus der Arbeit von Simon Poisson (1781-1840), während seine Anwendung in der Prognose scheint ein Pionier über ein Jahrhundert später 1956 von Robert Brown (19232013) in seiner Veröffentlichung Exponential Glättung für die Vorhersage der Nachfrage. (Cambridge, Massachusetts). Auf der Grundlage der URL schien Brown an der Prognose der Tabaknachfrage zu arbeiten. 1957 arbeitete Professor Charles C Holt (1921 - 2010) an der CMU (damals CIT) bei der Prognose von Trends in Produktion, Vorräte und Arbeitskräfte. Es scheint, dass Holt und Brown unabhängig voneinander arbeiteten und nicht von jeder anderen Arbeit wussten. Holt veröffentlichte eine Studie Prognose-Trends und Saisonale durch exponentiell gewichtete gleitende Durchschnitte (Office of Naval Research Research Memorandum Nr. 52, Carnegie Institute of Technology) beschreibt eine doppelte exponentielle Glättung. Drei Jahre später, im Jahre 1960, verbesserte ein Schüler von Holts () Peter R. Winters den Algorithmus, indem er Saisonalität addierte und veröffentlichte Prognoseverkäufe durch exponentiell gewichtete gleitende Durchschnitte (Management Science 6, 324342) und zitierte Dr. Holts 1957 Papier als frühere Arbeit an Das gleiche Thema. Dieser Algorithmus wurde als dreifache exponentielle Glättung oder die Holt-Winters-Methode bekannt, letzterer wahrscheinlich, weil er in einem 1960 Prentice-Hall-Buch Planning Production, Inventories und Work Force von Holt, Modigliani beschrieben wurde. Muth. Simon. Bonini und Winters - viel Glück, ein Exemplar zu finden Neugierig, ich konnte keine persönlichen Informationen über Peter R. Winters online finden. Wenn Sie etwas finden, lass es mich wissen, ich füge hier eine Referenz hinzu. Im Jahr 2000 wurde die Holt-Winters-Methode in den ISP-Kreisen auf dem Höhepunkt des Booms bekannt, als Jake D. Brutlag (damals von WebTV) veröffentlichte Aberrant Behavior Detection in der Zeitreihe für Network Monitoring (Proceedings der 14. Systems Administration Conference, LISA) 2000). Es beschrieb, wie eine Open-Source-C-Umsetzung auf die tatsächliche Commit einer Variante der Holt-Winters saisonale Methode, die er als Feature für die sehr beliebt bei ISPs RRDTool beigetragen. Um den Netzwerkverkehr zu überwachen. Im Jahr 2003 verlängerte Professor James W. Taylor, Oxford University, die Erfahrung von Holt-Winters auf mehrere Saisonalitäten (dh n-te Exponentialglättung) und veröffentlichte kurzfristige Strombedarfsprognosen unter Verwendung von Doppelsaison-Exponential Glättung (Journal of Operational Research Society, Band 54, Seiten 799805). (Aber wir werden nicht auf Taylors Methode hier). Im Jahr 2011 die RRDTool Umsetzung von Brutlag beigetragen wurde nach Graphit von Matthew Graham portiert, so dass es noch beliebter in der devops-Community. So wie es funktioniert Vorhersage, Baby Steps Die beste Weise, dreifache exponentielle Glättung zu erklären ist, allmählich bis es zu beginnen, beginnend mit den einfachsten Vorhersagemethoden. Damit dieser Text zu lang wird, stoppen wir bei dreifacher exponentieller Glättung, obwohl es noch viele andere Methoden gibt. Ich verwendete mathematische Notation nur dort, wo ich dachte es am besten Sinn, manchmal begleitet von einer englischen Übersetzung, und gegebenenfalls ergänzt mit ein wenig Python-Code. In Python Ich verzichte auf die Verwendung von nicht-Standard-Pakete, halten die Beispiele eindeutig. Ich entschied mich dafür, keine Generatoren für Klarheit zu verwenden. Das Ziel ist es, die innere Arbeit des Algorithmus zu erklären, so dass Sie es selbst in der gewünschten Sprache implementieren können. Ich hoffe auch zu zeigen, dass dies einfach genug ist, dass Sie nicht auf SciPy oder was auch immer (nicht, dass es nichts falsch mit dem). Aber zuerst, einige Terminologie Das Hauptthema hier ist eine Reihe. In der realen Welt sind wir höchstwahrscheinlich, dieses auf eine Zeitreihe anzuwenden. Aber für diese Diskussion der Zeitaspekt ist irrelevant. Eine Folge ist nur eine geordnete Folge von Zahlen. Wir könnten mit Worten, die chronologischer Natur sind (Vergangenheit, Zukunft, noch, schon, Zeit sogar), aber nur, weil es macht es leichter zu verstehen. So vergessen Sie Zeit, Zeitstempel, Intervalle, Zeit existiert nicht. Die einzige Eigenschaft, die jeder Datenpunkt hat (anders als der Wert), ist seine Reihenfolge: erster, nächster, vorheriger, letzter, usw. Es ist sinnvoll, eine Reihe als eine Liste von zweidimensionalen x, y-Koordinaten zu betrachten, wobei x ist (Immer um 1 erhöht) und y ist der Wert. Aus diesem Grund werden wir in unseren mathematischen Formeln auf y für Wert und x für Ordnung festhalten. Observed vs Expected Forecasting schätzt Werte, die wir noch nicht kennen, basierend auf den Werten, die wir kennen. Die Werte, die wir kennen, werden bei den von uns prognostizierten Werten als erwartet bezeichnet. Die mathematische Konvention, um erwartete Werte zu bezeichnen, ist mit dem Zirkumflex a. k.a. Hut: Hut Zum Beispiel, wenn wir eine Reihe haben, die wie 1,2,3 aussieht. Könnten wir den nächsten Wert auf 4 prognostizieren. Unter Verwendung dieser Terminologie, bei gegebener beobachteter Reihe 1,2,3 ist der nächste erwartete Wert 4 gleich 4. Wir haben auf der Grundlage von 1,2,3 intuited, dass in dieser Serie jeder Wert 1 größer ist Als die vorherige, die in math Notation ausgedrückt werden kann und Hut yx 1. Diese Gleichung, das Ergebnis unserer Intuition, ist bekannt als eine Prognosemethode. Wenn unser Verfahren korrekt ist, wäre der nächste beobachtete Wert tatsächlich 4, wenn aber 1,2,3 tatsächlich Teil einer Fibonacci-Sequenz ist. Dann, wo wir 4 4 erwarteten, würden wir y4 beobachten. Beachten Sie die hütenden (erwarteten) in der ersteren und y (beobachtet) in der letzteren Expression. Fehler. SSE und MSE Es ist völlig normal, die erwarteten Werte zu berechnen, wo wir bereits Werte beobachtet haben. Beim Vergleich der beiden können Sie den Fehler zu berechnen. Was der Unterschied zwischen beobachtetem und erwartetem ist und ein unverzichtbarer Hinweis auf die Genauigkeit des Verfahrens ist. Da die Differenz negativ oder positiv sein kann, ist die übliche Konvention, den absoluten Wert zu verwenden oder den Fehler zu quadrieren, so dass die Zahl immer positiv ist. Für eine ganze Reihe werden die quadratischen Fehler typischerweise summiert, was zu Summe von quadratischen Fehlern (SSE) führt. Manchmal können Sie auf Mean Squared Error (MSE), die einfach sqrt. Und jetzt die Methoden (wo der Spaß beginnt) In den nächsten Beispielen werden wir diese kleine Serie verwenden: Bildzeit Hier ist ein Bild, das unsere winzige Serie und alle oben genannten Prognosen (außer naiv) demonstriert. Es ist wichtig zu verstehen, welche der oben genannten Methoden besser ist sehr viel von der Art der Serie abhängt. Die Reihenfolge, in der ich sie präsentierte war von einfach bis komplex, aber komplexer nicht unbedingt besser. Single Exponential Smoothing Hier werden die Dinge interessant. Stellen Sie sich einen gewichteten Durchschnitt vor, bei dem wir alle Datenpunkte berücksichtigen, während wir in der Zeit exponentiell kleinere Gewichte zuordnen. Zum Beispiel, wenn wir mit 0,9 begannen, würden unsere Gewichte (zurück in der Zeit): schließlich Annäherung an die große alte Null. In gewisser Weise ist dies sehr ähnlich dem gewichteten Durchschnitt oben, nur die Gewichte werden durch Mathematik diktiert, gleichmäßig verfallend. Je kleiner das Startgewicht, desto schneller nähert es sich Null. Nur gibt es ein Problem: Gewichte addieren sich nicht zu 1. Die Summe der ersten 3 Zahlen allein ist bereits 2.439 (Übung für den Leser: welche Zahl nimmt die Summe der Gewichte an und warum) Was verdiente Poisson, Holts oder Roberts Ein dauerhafter Platz in der Geschichte der Mathematik löst dies mit einer prägnanten und eleganten Formel: Wenn Sie es nur lange genug anstarren, sehen Sie, dass der erwartete Werthut x die Summe zweier Produkte ist: alpha cdot yx und (1- Alpha) cdot hat. Sie können alpha (alpha) als eine Art von Startgewicht 0,9 in dem obigen (problematischen) Beispiel denken. Sie wird als Glättungsfaktor oder Glättungskoeffizient (abhängig davon, wer Ihr Textbuch geschrieben hat) genannt. So im Wesentlichen weve bekam einen gewichteten gleitenden Durchschnitt mit zwei Gewichte: alpha und 1-alpha. Die Summe aus alpha und 1-alpha ist 1, also ist alles gut. Nun können Sie auf die rechte Seite der Summe vergrößern. Geschickt wird 1-alpha mit dem vorherigen Erwartungswert Hut multipliziert. Was, wenn man darüber nachdenkt, ist das Ergebnis der gleichen Formel, die den Ausdruck rekursiv macht (und Programmierer lieben Rekursion), und wenn Sie es alles auf Papier schreiben würden Sie schnell sehen, dass (1-alpha) ist Multipliziert mit sich immer wieder bis zum Anfang der Reihe, wenn es einen gibt, unendlich anders. Und deshalb wird diese Methode als exponentiell bezeichnet. Eine weitere wichtige Sache über Alpha ist, dass sein Wert diktiert, wie viel Gewicht wir geben die jüngsten beobachteten Wert versus den letzten erwartet. Es ist eine Art von Hebel, der mehr Gewicht auf die linke Seite, wenn seine höhere (näher an 1) oder die rechte Seite, wenn seine niedrigere (näher an 0). Vielleicht wäre Alpha besser als Speicherabfallrate bezeichnet. Je höher das Alpha, desto schneller vergisst die Methode. Warum heißt es Glättung Nach meinem besten Verständnis bezieht sich dies einfach auf den Effekt, den diese Methoden auf einen Graphen haben, wenn Sie die Werte darstellen möchten: gezackte Linien werden glatter. Moving Average hat auch die gleiche Wirkung, so verdient es das Recht, Glättung genauso gut genannt werden. Implementierung Es gibt einen Aspekt dieser Methode, die Programmierer zu schätzen wissen, dass ist für Mathematiker keine Sorge: seine einfache und effiziente Umsetzung. Hier ist einige Python. Im Gegensatz zu den vorherigen Beispielen gibt diese Funktion erwartete Werte für die gesamte Serie zurück, nicht nur einen Punkt. Aktuelle Beiträge von Pan Hui, Jon Crowcroft, Eiko Yoneki - in Proc. ACM MobiHoc. 2008. In diesem Beitrag wollen wir unser Verständnis der menschlichen Mobilität im Hinblick auf soziale Strukturen verbessern und diese Strukturen bei der Konzeption von Weiterleitungsalgorithmen für Pocket Switched Networks (PSNs) nutzen. Unter Berücksichtigung menschlicher Mobilität Spuren aus der realen Welt, entdecken wir, dass die menschliche Interaktion ist heteroge. In diesem Beitrag wollen wir unser Verständnis der menschlichen Mobilität im Hinblick auf soziale Strukturen verbessern und diese Strukturen bei der Konzeption von Weiterleitungsalgorithmen für Pocket Switched Networks (PSNs) nutzen. Unter Berücksichtigung menschlicher Beweglichkeit Spuren aus der realen Welt, entdecken wir, dass die menschliche Interaktion heterogen ist sowohl in Bezug auf Hubs (beliebte Personen) und Gruppen oder Gemeinden. Wir schlagen einen sozialbasierten Weiterleitungsalgorithmus, BUBBLE vor, der empirisch gezeigt wird, um die Weiterleitungseffizienz deutlich zu verbessern, verglichen mit unvermeidlichen Weiterleitungssystemen und dem PROPHET-Algorithmus. Wir zeigen auch, wie dieser Algorithmus verteilt implementiert werden kann, was zeigt, dass er in der dezentralen Umgebung von PSNs anwendbar ist. Fenster, wie von gestern bis jetzt, dann berechnen den durchschnittlichen Grad für alle 6 Stunden. Wir nennen diesen Ansatz das kumulative Fenster (C-Window). Diese Technik ähnelt der exponentiellen Glättung -31-, die wir in der weiteren Arbeit untersuchen werden. Wir werden weiter in Abschnitt 6 zeigen, dass DEGREE, S-Window und C-Window die vorher berechnete Zentralität annähern und die Zentralität gemessen haben. Von Pan Hui, Jon Crowcroft, Eiko Yoneki - IEEE-Transaktionen über Mobile Computing. AbstractDie zunehmende Penetration von intelligenten Geräten mit Netzwerkfähigkeit bildet neue Netzwerke. Solche Netzwerke, auch als pocket switched networks (PSNs) bezeichnet, sind intermittierend verbunden und stellen eine paradigmatische Verschiebung von Weiterleitungsdaten ad hoc dar. Die soziale Struktur und interacti. AbstractDie zunehmende Penetration von intelligenten Geräten mit Netzwerkfähigkeit bildet neue Netzwerke. Solche Netzwerke, auch als pocket switched networks (PSNs) bezeichnet, sind intermittierend verbunden und stellen eine paradigmatische Verschiebung von Weiterleitungsdaten ad hoc dar. Die soziale Struktur und Interaktion der Benutzer solcher Geräte diktieren die Leistung von Routing-Protokollen in PSNs. Zu diesem Zweck ist die soziale Information eine wesentliche Metrik für die Entwicklung von Weiterleitungsalgorithmen für solche Netzwerke. Frühere Methoden beruhten auf dem Erstellen und Aktualisieren von Routingtabellen, um mit dynamischen Netzwerkbedingungen umzugehen. Auf der Unterseite hat es sich gezeigt, dass solche Ansätze aufgrund der partiellen Erfassung des transienten Netzwerkverhaltens kostenintensiv sind. Ein vielversprechenderer Ansatz wäre es, die intrinsischen Eigenschaften solcher Netzwerke zu erfassen und sie bei der Gestaltung von Routing-Algorithmen zu nutzen. In dieser Arbeit nutzen wir zwei soziale und strukturelle Metriken, nämlich Zentralität und Gemeinschaft, mit realen menschlichen Mobilitätsspuren. Die Beiträge dieser Arbeit sind zweifach. Zuerst entwerfen und bewerten wir BUBBLE, einen neuartigen, sozial-basierten Weiterleitungsalgorithmus, der die oben erwähnten Metriken zur Verbesserung der Lieferungsleistung nutzt. Zweitens zeigen wir empirisch, dass BUBBLE die Weiterleitungsleistung im Vergleich zu einer Anzahl von zuvor vorgeschlagenen Algorithmen, einschließlich des prozessualen Benchmarking-basierten PROPHET-Algorithmus, und des sozialbasierten Weiterleitungs-SimBet-Algorithmus wesentlich verbessern kann. Index BegriffeSoziale Netzwerke, Weiterleitungsalgorithmen, verzögerungstolerante Netzwerke, pocket-switched Netzwerke, Zentralität, Community-Erkennung. 1 erday bis jetzt, dann berechnen den durchschnittlichen Grad für alle 6 Stunden. Wir nennen diesen Ansatz kumulative Fenster (C-Fenster). Diese Technik ähnelt einer Statistik-Technik namens exponentielle Glättung -24- und wir möchten weitere theoretische Untersuchungen durchführen. Wir können aus Abb. Dass der S-Window-Ansatz den jüngeren Kontext widerspiegelt und eine maximale Verbesserung der Auslieferung um 4% erreicht. Von Jan G De Gooijer, Rob J Hyndman - Internationale Zeitschrift für Vorhersage. Zusammenfassung: Wir untersuchen die letzten 25 Jahre der Forschung in Zeitreihen-Prognose. In dieser Silberjubiläumsausgabe heben wir natürlich die Ergebnisse hervor, die in Zeitschriften veröffentlicht wurden, die vom Internationalen Institut für Forecasters (Journal of Forecasting 19821985 International Journal of Forecasting 19852005) verwaltet werden. Zusammenfassung: Wir untersuchen die letzten 25 Jahre der Forschung in Zeitreihen-Prognose. In dieser Silberjubiläumsausgabe heben wir natürlich die Ergebnisse hervor, die in Zeitschriften veröffentlicht wurden, die vom Internationalen Institut für Forecasters (Journal of Forecasting 19821985 International Journal of Forecasting 19852005) verwaltet werden. Während dieser Zeit umfasste über ein Drittel aller in diesen Zeitschriften veröffentlichten Zeitschriften Zeitreihenvorhersagen. Wir berichten auch über einflussreiche Arbeiten über Zeitreihenprognosen, die in diesem Zeitraum an anderer Stelle veröffentlicht wurden. In vielen Bereichen sind enorme Fortschritte zu verzeichnen, aber es gibt viele Themen, die einer weiteren Entwicklung bedürfen. Wir schließen mit Kommentaren von Yuhong Yang - Ökonometrische Theorie. 2004. Wir studieren einige Methoden der Kombination von Prozeduren für die Prognose einer kontinuierlichen Zufallsvariable. Statistische Risikobeschränkungen unter dem quadratischen Fehlerverlust werden unter milden Verteilungsannahmen auf die Zukunft angesichts der gegenwärtigen Außeninformationen und der vergangenen Beobachtungen erhalten. Die Risikobeschränkungen zeigen, dass. Wir studieren einige Methoden der Kombination von Prozeduren für die Prognose einer kontinuierlichen Zufallsvariable. Statistische Risikobeschränkungen unter dem quadratischen Fehlerverlust werden unter milden Verteilungsannahmen auf die Zukunft angesichts der gegenwärtigen Außeninformationen und der vergangenen Beobachtungen erhalten. Die Risikobeschränkungen zeigen, dass die kombinierte Prognose automatisch die beste Performance zwischen den Kandidatenprozessen bis zu einem konstanten Faktor und einem additiven Straftermin erreicht. Unter Berücksichtigung der Konvergenzrate führt die kombinierte Prognose sowie, wenn man wüsste, welches Kandidatenprognoseverfahren das beste im Voraus ist. Empirische Studien schlagen vor, dass Kombinationsprozesse manchmal die Prognosegenauigkeit im Vergleich zu den ursprünglichen Prozeduren verbessern können. Risikobeschränkungen werden abgeleitet, um theoretisch die potenziellen Gewinne und den Preis für die lineare Kombination von Verbesserungsvorhersagen zu quantifizieren. Das Ergebnis unterstützt die empirische Feststellung, dass es nicht automatisch eine gute Idee ist, Prognosen zu kombinieren. Eine blinde Kombination kann die Leistungsfähigkeit dramatisch verschlechtern, und zwar aufgrund der unerwünschten großen Variabilität bei der Schätzung der besten Kombinationsgewichte. Ein automatisiertes Kombinationsverfahren wird in der Theorie gezeigt, um ein Gleichgewicht zwischen dem Potentialgewinn und der Komplexitätsstrafe (dem Kombinationspreis) zu erzielen, um (wenn überhaupt) eine spärliche Kombination zu nutzen und die beste Leistung (in der Rate) unter den Kandidatenvorhersagen aufrechtzuerhalten Wenn lineare oder spärliche Kombinationen nicht helfen. Von George Athanasopoulos, Rob J. Hyndman. In diesem Papier, wir modellieren und prognostizieren australischen Binnenverkehr Nachfrage. Wir verwenden ein Regressions-Framework, um wichtige wirtschaftliche Zusammenhänge für die Nachfrage im Inlandsmarkt abzuschätzen. Wir identifizieren auch die Auswirkungen von Welt-Veranstaltungen wie die 2000 Sydney Olympics und die 2002 Bali-Bombenanschläge auf australischen Kuppeln. In diesem Papier, wir modellieren und prognostizieren australischen Binnenverkehr Nachfrage. Wir verwenden ein Regressions-Framework, um wichtige wirtschaftliche Zusammenhänge für die Nachfrage im Inlandsmarkt abzuschätzen. Wir identifizieren auch die Auswirkungen von Welt-Veranstaltungen wie die 2000 Sydney Olympics und die 2002 Bali Bombenanschläge auf australischen Inlandstourismus. Um die Zeitreihe der Daten zu erforschen, verwenden wir Innovationen Zustandsraummodelle, um die Nachfrage im Inland zu prognostizieren. Kombinieren diese beiden Frameworks, bauen wir Innovationen State-Space-Modelle mit exogenen Variablen. Diese Modelle sind in der Lage, die Zeitreihen-Dynamik in den Daten, sowie wirtschaftliche und andere Beziehungen zu erfassen. Wir zeigen, dass diese Modelle alternative Ansätze für kurzfristige Prognosen übertreffen und auch vernünftige langfristige Prognosen erzeugen. Die Prognosen werden mit den offiziellen australischen Staatsvorhersagen verglichen, die sich als optimistischer erweisen als unsere Prognosen. Alle Schulstufen. 3.2. Exponentielle Glättung durch Innovationen Zustandsraummodelle In den späten fünfziger Jahren wurde eine exponentielle Glättung vorgeschlagen (siehe die Pionierarbeiten von Brown, 1959, Holt, 1957 - Winters, 1960) und hat einige der erfolgreichsten Prognosemethoden motiviert. Prognosen, die unter Verwendung exponentieller Glättungsmethoden erzeugt werden, sind gewichtete Mittelwerte von vergangenen Beobachtungen, wobei die Gewichte sich verjüngen. Von Ilan Alon, Min Qi, Robert J. Sadowski - Zeitschrift für Handel und Verbraucherschutz. 2001. Wie viele andere wirtschaftliche Zeitreihen haben US-Aggregate-Einzelhandelsumsätze starke Trend - und saisonale Muster. Wie man diese Muster am besten modelliert und prognostiziert, ist in der Zeitreihenanalyse ein langjähriges Problem. Dieser Artikel vergleicht artiquotische neuronale Netze und traditionelle Methoden einschließlich Winter. Wie viele andere wirtschaftliche Zeitreihen haben US-Aggregate-Einzelhandelsumsätze starke Trend - und saisonale Muster. Wie man diese Muster am besten modelliert und prognostiziert, ist in der Zeitreihenanalyse ein langjähriges Problem. Dieser Artikel vergleicht artiampquotcial neuronale Netze und traditionelle Methoden einschließlich Winters exponentielle Glättung, BoxJenkins ARIMA Modell und multivariate Regression. Die Ergebnisse zeigen, dass im Durchschnitt ANNs günstiger in Bezug auf die traditionelleren statistischen Methoden, gefolgt von der BoxJenkins-Modell. Trotz seiner Einfachheit erwies sich das Winters-Modell als eine tragfähige Methode zur mehrstufigen Prognose unter relativ stabilen wirtschaftlichen Bedingungen. Die Derivatanalyse zeigt, dass das neuronale Netzwerkmodell in der Lage ist, den dynamischen nichtlinearen Trend zu erfassen und durch Shawndra Hill, Deepak K. Agarwal, Robert Bell, Chris Volinsky - Journal of Computational and Graphical Statistics. 2006. Ein dynamisches Netzwerk ist eine spezielle Art von Netzwerk, das aus miteinander verbundenen Transaktern besteht, die sich wiederholt entwickelnde Interaktion haben. Daten über große dynamische Netze wie Telekommunikationsnetze und das Internet sind durchgreifend. Allerdings repräsentieren dynamische Netzwerke in einer Weise, die förderlich für effic ist. Ein dynamisches Netzwerk ist eine spezielle Art von Netzwerk, das aus miteinander verbundenen Transaktern besteht, die sich wiederholt entwickelnde Interaktion haben. Daten über große dynamische Netze wie Telekommunikationsnetze und das Internet sind durchgreifend. Dynamische Netzwerke zu repräsentieren, die eine effiziente Großanalyse begünstigen, ist eine Herausforderung. In diesem Artikel vertreten wir dynamische Graphen mit einer Datenstruktur in einem früheren Artikel eingeführt. Wir befürworten ihre Repräsentation, weil sie für die Evolution der Beziehungen zwischen den Transaktoren durch die Zeit verantwortlich ist, das Rauschen auf der lokalen Transaktorebene verringert und die Entfernung von abgestandenen Beziehungen ermöglicht. Unsere Arbeit verbessert ihre heuristischen Argumente, indem sie die Darstellung mit drei abstimmbaren Parametern formalisiert. Dabei entwickeln wir ein generisches Framework zur Auswertung und Optimierung eines dynamischen Graphen. Wir zeigen, dass die an der Repräsentation beteiligten Speicherungsnäherungen die prädiktive Leistung nicht beeinflussen und sie in der Regel verbessern. Wir motivieren unseren Ansatz mit einem Betrugserfassungsbeispiel aus der Telekommunikationsbranche und zeigen, dass wir die veröffentlichten Ergebnisse der Betrugserkennungsaufgabe übertreffen können. Darüber hinaus stellen wir eine vorläufige Analyse zu Weblogs und E-Mail-Netzwerken vor. Die den aktuellen Graphen beeinflussen. Diese Form der Gewichtsfunktion ist praktisch in dem Sinne, daß die Gleichung (1) in der Wiederholungsform ausgedrückt werden kann: Diese Form ist in der Statistik als exponentielle Glättung -30 bekannt. Es bietet eine glatte dynamische Entwicklung von Gt. Die iterative Natur der Aktualisierung ermöglicht es uns, die Informationen aus allen früheren Zeiträumen ohne Einbeziehung der Verwaltung und speichern. Von Steffen Unkel, C. Paddy Farrington, Paul H. Garthwaite, Chris Robertson, Nick Andrews. Ungewöhnliche Cluster von Krankheiten müssen rasch erkannt werden, damit wirksame Interventionen der öffentlichen Gesundheit eingeführt werden können. In den vergangenen zehn Jahren gab es einen Anstieg des Interesses an statistischen Methoden für die Früherkennung von Infektionskrankheiten Ausbrüchen. Dieses Wachstum des Interesses hat viel Neues hervorgerufen. Ungewöhnliche Cluster von Krankheiten müssen schnell erkannt werden, damit wirksame Interventionen der öffentlichen Gesundheit eingeführt werden können. In den vergangenen zehn Jahren gab es einen Anstieg des Interesses an statistischen Methoden für die Früherkennung von Infektionskrankheiten Ausbrüchen. Diese Zunahme des Interesses hat zu einer viel neuen methodischen Arbeit geführt, die sich über das gesamte Spektrum der statistischen Methoden erstreckt. Dieses Papier enthält eine umfassende Übersicht der vorgeschlagenen statistischen Ansätze. Sowohl Labor - als auch Syndromüberwachungsdaten werden bereitgestellt, um die verschiedenen Verfahren zu veranschaulichen. E der Trend und saisonale Komponente. Zwei allgemeine Zeitreihenverfahren, die bei der Überwachung verwendet werden, sind einfache exponentielle Glättung (z. B. Healy 1983 Ngo et al., 1996) und das Holt-Winters-Verfahren (Holt 1957 - Winters 1960-). Einfache exponentielle Glättung stellt sicher, dass die Daten keine Trend - oder Saisonalität aufweisen. Er bildet Vorhersagen, indem er einen gewichteten Durchschnitt der vergangenen Beobachtungen nimmt, wo die Gewichte exponentiell die Furt verringern. Von Sarah Gelper, Christophe Croux, Sarah Gelper, Roland Fried, Christophe Croux. 2007. Robuste Versionen der Exponential - und Holt-Winters-Glättungsmethode für die Prognose werden vorgestellt. Sie eignen sich zur Prognose von univariaten Zeitreihen in Gegenwart von Ausreißern. Die robusten Exponential - und Holt-Winters-Glättungsmethoden werden als rekursives Aktualisierungsschema dargestellt. Sowohl die Aktualisierung. Robuste Versionen der Exponential - und Holt-Winters-Glättungsmethode für die Prognose werden vorgestellt. Sie eignen sich zur Prognose von univariaten Zeitreihen in Gegenwart von Ausreißern. Die robusten Exponential - und Holt-Winters-Glättungsmethoden werden als rekursives Aktualisierungsschema dargestellt. Sowohl die Aktualisierungsgleichung als auch die Auswahl der Glättungsparameter sind robust. Diese robuste Methode entspricht einer bestimmten Form des robusten Kalman-lters in einem lokalen linearen Trendmodell. Eine Simulationsstudie vergleicht die robusten und klassischen Prognosen. Die dargestellte Methode hat gute Prognoseperformance für Zeitreihen mit und ohne Ausreißer, sowie für fat tailed Zeitreihen. Die Methode wird anhand von realen Daten dargestellt, die Trends und saisonale Effekte beinhalten. . In diesem Beitrag wollen wir das Verständnis der Struktur der menschlichen Mobilität verbessern, um dies für die Entwicklung von Algorithmen für die Verbreitung von Daten unter mobilen Benutzern zu nutzen. Die Kooperation verbindet aber auch die menschliche Gesellschaft in Gemeinschaften. Mitglieder der gleichen Gemeinschaft interagieren mit eac. In diesem Beitrag wollen wir das Verständnis der Struktur der menschlichen Mobilität verbessern, um dies für die Entwicklung von Algorithmen für die Verbreitung von Daten unter mobilen Benutzern zu nutzen. Die Kooperation verbindet aber auch die menschliche Gesellschaft in Gemeinschaften. Mitglieder der gleichen Gemeinschaft interagieren miteinander bevorzugt. Es gibt Struktur in der menschlichen Gesellschaft. Innerhalb der Gesellschaft und ihrer Gemeinschaften haben Einzelpersonen unterschiedliche Popularität. Einige Leute sind populärer und interagieren mit mehr Menschen als andere, die wir sie Hubs nennen können. Beliebtheit ist eine Facette der Bevölkerung. In vielen physikalischen Netzwerken sind einige Knoten stärker miteinander verbunden als mit dem Rest des Netzwerks. Der Satz solcher Knoten wird gewöhnlich Cluster, Gemeinschaften, zusammenhängende Gruppen oder Module genannt. Es gibt auch Struktur für soziale Netzwerke. Verschiedene Metriken können verwendet werden, wie Informationsfluss, Freemanbetweenness, Nähe und Schlußfolgerungsleistung, aber für alle von ihnen kann jedem Knoten im Netzwerk ein globaler Zentralitätswert zugewiesen werden. 1. bis jetzt, dann den durchschnittlichen Grad für alle 6 Stunden berechnen. Wir nennen diesen Ansatz das akkumulative Fenster (AWindow). Diese Technik ähnelt einer Statistik-Technik namens exponentielle Glättung -28- und wir möchten weitere theoretische Untersuchungen durchführen. Der S-Window-Ansatz spiegelt den jüngeren Kontext wider und erreicht ein Maximum von 4 Verbesserungen im Lieferungsverhältnis als DEGREE, aber bei doppelt so vielen von Pan Hui, Jon Crowcroft, Eiko Yoneki - in Proc. ACM MobiHoc. 2008. In diesem Beitrag wollen wir unser Verständnis der menschlichen Mobilität im Hinblick auf soziale Strukturen verbessern und diese Strukturen bei der Konzeption von Weiterleitungsalgorithmen für Pocket Switched Networks (PSNs) nutzen. Unter Berücksichtigung menschlicher Mobilität Spuren aus der realen Welt, entdecken wir, dass die menschliche Interaktion ist heteroge. In diesem Beitrag wollen wir unser Verständnis der menschlichen Mobilität im Hinblick auf soziale Strukturen verbessern und diese Strukturen bei der Konzeption von Weiterleitungsalgorithmen für Pocket Switched Networks (PSNs) nutzen. Unter Berücksichtigung menschlicher Beweglichkeit Spuren aus der realen Welt, entdecken wir, dass die menschliche Interaktion heterogen ist sowohl in Bezug auf Hubs (beliebte Personen) und Gruppen oder Gemeinden. Wir schlagen einen sozialbasierten Weiterleitungsalgorithmus, BUBBLE vor, der empirisch gezeigt wird, um die Weiterleitungseffizienz deutlich zu verbessern, verglichen mit unvermeidlichen Weiterleitungssystemen und dem PROPHET-Algorithmus. Wir zeigen auch, wie dieser Algorithmus verteilt implementiert werden kann, was zeigt, dass er in der dezentralen Umgebung von PSNs anwendbar ist. Fenster, wie von gestern bis jetzt, dann berechnen den durchschnittlichen Grad für alle 6 Stunden. Wir nennen diesen Ansatz das kumulative Fenster (C-Window). Diese Technik ähnelt der exponentiellen Glättung -31-, die wir in der weiteren Arbeit untersuchen werden. Wir werden weiter in Abschnitt 6 zeigen, dass DEGREE, S-Window und C-Window die vorher berechnete Zentralität annähern und die Zentralität gemessen haben. Von Pan Hui, Jon Crowcroft, Eiko Yoneki - IEEE-Transaktionen über Mobile Computing. AbstractDie zunehmende Penetration von intelligenten Geräten mit Netzwerkfähigkeit bildet neue Netzwerke. Solche Netzwerke, auch als pocket switched networks (PSNs) bezeichnet, sind intermittierend verbunden und stellen eine paradigmatische Verschiebung von Weiterleitungsdaten ad hoc dar. Die soziale Struktur und interacti. AbstractDie zunehmende Penetration von intelligenten Geräten mit Netzwerkfähigkeit bildet neue Netzwerke. Solche Netzwerke, auch als pocket switched networks (PSNs) bezeichnet, sind intermittierend verbunden und stellen eine paradigmatische Verschiebung von Weiterleitungsdaten ad hoc dar. Die soziale Struktur und Interaktion der Benutzer solcher Geräte diktieren die Leistung von Routing-Protokollen in PSNs. Zu diesem Zweck ist die soziale Information eine wesentliche Metrik für die Entwicklung von Weiterleitungsalgorithmen für solche Netzwerke. Frühere Methoden beruhten auf dem Erstellen und Aktualisieren von Routingtabellen, um mit dynamischen Netzwerkbedingungen umzugehen. Auf der Unterseite hat es sich gezeigt, dass solche Ansätze aufgrund der partiellen Erfassung des transienten Netzwerkverhaltens kostenintensiv sind. Ein vielversprechenderer Ansatz wäre es, die intrinsischen Eigenschaften solcher Netzwerke zu erfassen und sie bei der Gestaltung von Routing-Algorithmen zu nutzen. In dieser Arbeit nutzen wir zwei soziale und strukturelle Metriken, nämlich Zentralität und Gemeinschaft, mit realen menschlichen Mobilitätsspuren. Die Beiträge dieser Arbeit sind zweifach. Zuerst entwerfen und bewerten wir BUBBLE, einen neuartigen, sozial-basierten Weiterleitungsalgorithmus, der die oben erwähnten Metriken zur Verbesserung der Lieferungsleistung nutzt. Zweitens zeigen wir empirisch, dass BUBBLE die Weiterleitungsleistung im Vergleich zu einer Anzahl von zuvor vorgeschlagenen Algorithmen, einschließlich des prozessualen Benchmarking-basierten PROPHET-Algorithmus, und des sozialbasierten Weiterleitungs-SimBet-Algorithmus wesentlich verbessern kann. Index BegriffeSoziale Netzwerke, Weiterleitungsalgorithmen, verzögerungstolerante Netzwerke, pocket-switched Netzwerke, Zentralität, Community-Erkennung. 1 erday bis jetzt, dann berechnen den durchschnittlichen Grad für alle 6 Stunden. Wir nennen diesen Ansatz kumulative Fenster (C-Fenster). Diese Technik ähnelt einer Statistik-Technik namens exponentielle Glättung -24- und wir möchten weitere theoretische Untersuchungen durchführen. Wir können aus Abb. Dass der S-Window-Ansatz den jüngeren Kontext widerspiegelt und eine maximal 4-prozentige Verbesserung der Lieferung erzielt. Von Jan G De Gooijer, Rob J Hyndman - Internationale Zeitschrift für Vorhersage. Zusammenfassung: Wir untersuchen die letzten 25 Jahre der Forschung in Zeitreihen-Prognose. In dieser Silberjubiläumsausgabe heben wir natürlich die Ergebnisse hervor, die in Zeitschriften veröffentlicht wurden, die vom Internationalen Institut für Forecasters (Journal of Forecasting 19821985 International Journal of Forecasting 19852005) verwaltet werden. Zusammenfassung: Wir untersuchen die letzten 25 Jahre der Forschung in Zeitreihen-Prognose. In dieser Silberjubiläumsausgabe heben wir natürlich die Ergebnisse hervor, die in Zeitschriften veröffentlicht wurden, die vom Internationalen Institut für Forecasters (Journal of Forecasting 19821985 International Journal of Forecasting 19852005) verwaltet werden. Während dieser Zeit umfasste über ein Drittel aller in diesen Zeitschriften veröffentlichten Zeitschriften Zeitreihenvorhersagen. Wir berichten auch über einflussreiche Arbeiten über Zeitreihenprognosen, die in diesem Zeitraum an anderer Stelle veröffentlicht wurden. Enormous progress has been made in many areas, but we find that there are a large number of topics in need of further development. We conclude with comments on by Yuhong Yang - Econometric Theory. 2004. We study some methods of combining procedures for forecasting a continuous random variable. Statistical risk bounds under the square error loss are obtained under mild distributional assumptions on the future given the current outside information and the past observations. The risk bounds show that. We study some methods of combining procedures for forecasting a continuous random variable. Statistical risk bounds under the square error loss are obtained under mild distributional assumptions on the future given the current outside information and the past observations. The risk bounds show that the combined forecast automatically achieves the best performance among the candidate procedures up to a constant factor and an additive penalty term. In term of the rate of convergence, the combined forecast performs as well as if one knew which candidate forecasting procedure is the best in advance. Empirical studies suggest combining procedures can sometimes improve forecasting accuracy compared to the original procedures. Risk bounds are derived to theoretically quantify the potential gain and price for linearly combining forecasts for improvement. The result supports the empirical finding that it is not automatically a good idea to combine forecasts. A blind combining can degrade performance dramatically due to the undesirable large variability in estimating the best combining weights. An automated combining method is shown in theory to achieve a balance between the potential gain and the complexity penalty (the price for combining) to take advantage (if any) of sparse combining and to maintain the best performance (in rate) among the candidate forecasting procedures if linear or sparse combining does not help. by George Athanasopoulos, Rob J. Hyndman . In this paper, we model and forecast Australian domestic tourism demand. We use a regression framework to estimate important economic relationships for domestic tourism demand. We also identify the impact of world events such as the 2000 Sydney Olympics and the 2002 Bali bombings on Australian domes. In this paper, we model and forecast Australian domestic tourism demand. We use a regression framework to estimate important economic relationships for domestic tourism demand. We also identify the impact of world events such as the 2000 Sydney Olympics and the 2002 Bali bombings on Australian domestic tourism. To explore the time series nature of the data, we use innovations state space models to forecast domestic tourism demand. Combining these two frameworks, we build innovations state space models with exogenous variables. These models are able to capture the time series dynamics in the data, as well as economic and other relationships. We show that these models outperform alternative approaches for short-term forecasting and also produce sensible long-term forecasts. The forecasts are compared with the official Australian government forecasts, which are found to be more optimistic than our forecasts. er of all levels of schooling. 3.2. Exponential smoothing via innovations state space models Exponential smoothing was proposed in the late 1950s (see the pioneering works of Brown, 1959 Holt, 1957 - Winters, 1960--) and has motivated some of the most successful forecasting methods. Forecasts produced using exponential smoothing methods are weighted averages of past observations, with the weights decaying expone. by Ilan Alon, Min Qi, Robert J. Sadowski - Journal of Retailing and Consumer Services. 2001. Like many other economic time series, US aggregate retail sales have strong trend and seasonal patterns. How to best model and forecast these patterns has been a long-standing issue in time-series analysis. This article compares artiquotcial neural networks and traditional methods including Winter. Like many other economic time series, US aggregate retail sales have strong trend and seasonal patterns. How to best model and forecast these patterns has been a long-standing issue in time-series analysis. This article compares artiampquotcial neural networks and traditional methods including Winters exponential smoothing, BoxJenkins ARIMA model, and multivariate regression. The results indicate that on average ANNs fare favorably in relation to the more traditional statistical methods, followed by the BoxJenkins model. Despite its simplicity, the Winters model was shown to be a viable method for multiple-step forecasting under relatively stable economic conditions. The derivative analysis shows that the neural network model is able to capture the dynamic nonlinear trend and by Shawndra Hill, Deepak K. Agarwal, Robert Bell, Chris Volinsky - Journal of Computational and Graphical Statistics. 2006. A dynamic network is a special type of network composed of connected transac-tors which have repeated evolving interaction. Data on large dynamic networks such as telecommunications networks and the Internet are pervasive. However, representing dynamic networks in a manner that is conducive to effic. A dynamic network is a special type of network composed of connected transac-tors which have repeated evolving interaction. Data on large dynamic networks such as telecommunications networks and the Internet are pervasive. However, representing dynamic networks in a manner that is conducive to efficient large-scale analysis is a challenge. In this article, we represent dynamic graphs using a data structure introduced in an earlier article. We advocate their representation because it accounts for the evo-lution of relationships between transactors through time, mitigates noise at the local transactor level, and allows for the removal of stale relationships. Our work improves on their heuristic arguments by formalizing the representation with three tunable pa-rameters. In doing this, we develop a generic framework for evaluating and tuning any dynamic graph. We show that the storage saving approximations involved in the repre-sentation do not affect predictive performance, and typically improve it. We motivate our approach using a fraud detection example from the telecommunications industry, and demonstrate that we can outperform published results on the fraud detection task. In addition, we present a preliminary analysis on Web logs and e-mail networks. influencing the current graph. This form of weight function is convenient in the sense that Eq.(l) can be expressed in recurrence form: This form is well-known in statistics as exponential smoothing -30--. It provides a smooth dynamic evolution of Gt. The iterative nature of the updating allows us to incorporate the information from all previous time periods without incurring the management and storag. by Steffen Unkel, C. Paddy Farrington, Paul H. Garthwaite, Chris Robertson, Nick Andrews . Unusual clusters of disease must be detected rapidly for effective public health interventions to be introduced. Over the past decade there has been a surge in interest in statistical methods for the early detection of infectious disease outbreaks. This growth in interest has given rise to much new. Unusual clusters of disease must be detected rapidly for effective public health interventions to be introduced. Over the past decade there has been a surge in interest in statistical methods for the early detection of infectious disease outbreaks. This growth in interest has given rise to much new methodological work, ranging across the spectrum of statistical methods. This paper presents a comprehensive review of the statistical approaches that have been proposed. Applications to both laboratory and syndromic surveillance data are provided to illustrate the various methods. e the trend and seasonal component. Two common time series methods used in surveillance are simple exponential smoothing (e. g. Healy 1983 Ngo et al. 1996) and the Holt-Winters procedure (Holt 1957 - Winters 1960--). Simple exponential smoothing assures the data have no trend or seasonality. It forms predictions by taking a weighted average of past observations, where the weights decrease exponentially the furt. by Sarah Gelper, Christophe Croux, Sarah Gelper, Roland Fried, Christophe Croux. 2007. Robust versions of the exponential and Holt-Winters smoothing method for forecasting are presented. They are suitable for forecasting univariate time series in presence of outliers. The robust exponential and Holt-Winters smoothing methods are presented as a recursive updating scheme. Both the updat. Robust versions of the exponential and Holt-Winters smoothing method for forecasting are presented. They are suitable for forecasting univariate time series in presence of outliers. The robust exponential and Holt-Winters smoothing methods are presented as a recursive updating scheme. Both the update equation and the selection of the smoothing parameters are robustied. This robust method is equivalent to a particular form of the robust Kalman lter in a local linear trend model. A simulation study compares the robust and classical forecasts. The presented method is found to have good forecast performance for time series with and without outliers, as well as for fat tailed time series. The method is illustrated using real data incorporating trends and seasonal eects. . In this paper we seek to improve understanding of the structure of human mobility, with a view to using this for designing algorithms for the dissemination of data amongst mobile users. Cooperation binds but also divides human society into communities. Members of the same community interact with eac. In this paper we seek to improve understanding of the structure of human mobility, with a view to using this for designing algorithms for the dissemination of data amongst mobile users. Cooperation binds but also divides human society into communities. Members of the same community interact with each other preferentially. There is structure in human society. Within society and its communities, individuals have varying popularity. Some people are more popular and interact with more people than others we may call them hubs. Popularity ranking is one facet of the population. In many physical networks, some nodes are more highly connected to each other than to the rest of the network. The set of such nodes are usually called clusters, communities, cohesive groups or modules. There is also structure to social networking. Different metrics can be used such as information flow, Freeman betweenness, closeness and inference power, but for all of them, each node in the network can be assigned a global centrality value. 1. to now, then calculate the average degree for every 6 hours. We call this approach the accumulative window (AWindow). This technique is similar to a statistics technique called exponential smoothing -28-- and we would like to do further theoretical investigation. The S-Window approach reflects more recent context and achieves maximum of 4 improvement in delivery ratio than DEGREE, but at double the c.


No comments:

Post a Comment