Wednesday 25 October 2017

Optimale Handelsstrategien Quantitative Ansätze


Über diese Zeitschrift The Journal of Investment Strategies widmet sich der rigorosen Behandlung moderner Anlagestrategien, die weit über die klassischen Ansätze hinausgehen, sowohl in den Themeninstrumenten als auch in den Methoden. Bei der Bereitstellung einer ausgewogenen Vertretung der akademischen, Buy-Side - und Sell-Side-Forschung fördert das Journal die Cross-Bestäubung von Ideen unter Forschern und Praktikern, die einen einzigartigen Nexus von Akademie und Industrie einerseits und theoretische und angewandte Modelle auf der andere. Das Journal enthält eingehende Forschungsarbeiten sowie Diskussionsartikel zu technischen und marktüblichen Fächern und zielt darauf ab, die globale Investitionsgemeinschaft mit praktischer und innovativer Forschung auszustatten, um moderne Anlagestrategien zu verstehen und umzusetzen. Mit einem Fokus auf wichtige zeitgenössische Anlagestrategien, Techniken und Management, betrachtet die Zeitschrift Papiere zu folgenden Bereichen: Grundlegende Strategien. Einschließlich fundamentaler Makro, fundamentaler Eigenkapital oder Kreditauswahl Relative Value Strategies. Schätzung und Investition in die relative Bewertung von verwandten Wertpapieren, sowohl Vanille als auch Derivate Taktische Strategien. Strategien auf der Grundlage von Prognosen und Investitionen in, Muster des Marktverhaltens, wie Impuls oder mittlere Reversion, und taktische Asset Allocation Strategien. Event-Driven Strategies: Strategien basierend auf der Prognose der Wahrscheinlichkeit von Marktbewegungsereignissen oder Marktreaktionen auf solche Ereignisse Algorithmische Handelsstrategien. Modelle der Marktmikrostruktur, Liquidität und Marktwirkung sowie algorithmische Handelsabwicklung und Marktführungsstrategien Hauptinvestitionsstrategien. Anlagestrategien für illiquide Wertpapiere und Kapitalbeteiligung oder Finanzierung von Immobilien und Unternehmen Portfolio Management und Asset Allocation. Modelle zur Portfoliooptimierung, Risikokontrolle, Leistungszuordnung und Asset Allocation Ökonometrische und statistische Methoden. Mit Anträgen auf Anlagestrategien Das Journal of Investment Strategies wurde für die Berichterstattung in Thomson Reuters Emerging Sources Citation Index ausgewählt. Dieses Papier studiert zentrale (Zusammenschaltungsrisiko) Maßnahmen und ihren Mehrwert in einem aktiven Portfolio-Optimierungs-Framework. In diesem Beitrag untersuchen die Autoren, wie sich die Transaktionskosten der Port-Fee auf die Portfolio-Rebalancing auswirken. Die Autoren schlagen einen analytischen Rahmen vor, um Investitionsmöglichkeiten zu messen und das Risiko über die Zeit auf der Grundlage der Mahalanobis-Distanz zuzuordnen. In diesem Papier geben die Autoren vollständige Algorithmen und Quellcode für den Aufbau statistischer Risikomodelle. Dieses Papier schlägt vor, einen Optimierungsmechanismus in der Währungsüberlagerungs-Portfolio-Konstruktion zu verwenden. Die Autoren dieser Arbeit leiten eine optimale Handelsstrategie ab, die den Schlusskurs in einem Mittelwert-Optimierungsrahmen festlegt. Die Autoren dieser Arbeit zielen darauf ab, Portfolios, die durch eine robuste Optimierung ausgewählt wurden, zu entmystifizieren, indem sie die Begrenzung von Portfolios in den Fällen der großen und kleinen Unsicherheit in den mittleren Renditen betrachtet. Die Autoren dieses Papiers analysieren ein gleichwertiges Portfolio an globalen Cross-Asset-Class-Risikofaktor-Expositionen. Die Autoren dieses Papiers geben einen vollständigen Algorithmus und Quellcode für den Aufbau allgemeiner Multifaktor-Risikomodelle über jede Kombination von Stilfaktoren, Hauptkomponenten und Industriefaktoren. Dieses Papier verwendet die Fraktional Kelly Strategien Rahmen zu zeigen, dass optimale Portfolios mit Low-Beta-Aktien generieren höhere mittlere Reichtum und niedrigere Intra-Horizont-Shortfall-Risiko. Die Autoren dieses Aufsatzes wenden einen zukunftsorientierten Ansatz für das Minimum-Varianz-Portfolio-Optimierungsproblem für eine Auswahl von 100 Aktien an. Dieses Papier untersucht die Ursachen der Qualitätsanomalie durch die Erforschung von zwei möglichen Erklärungen - die Risikobewertung und die Verhaltensansicht. Dieses Papier untersucht die optimale Gestaltung von Mitteln, die Kapitalschutz bei einer bestimmten Reife bieten. Dieses Papier untersucht das Problem des optimalen Handels mit allgemeinen Alpha-Prädiktoren mit linearen Kosten und vorübergehenden Auswirkungen. Dieses Papier projiziert ein optimales, unbeschränktes Faktor-Portfolio auf eine Reihe aller möglichen Portfolios mit Tracking-Error als Distanzmaß. Dieses Papier analysiert empirische Daten für 4000 reale Handelsbestände mit Haltedauer von ca. 0,7-19 Handelstagen. Dieses Papier leitet explizite Formeln für die optimale Implementierungs-Shortfall-Handelskurve mit linearer und nichtlinearer Marktwirkung ab. Die Autoren dieser Arbeit schlagen eine Aktienauswahlmethode vor, die auf einer variablen Auswahlmethode basiert, die mit PCA in multivariaten Statistiken verwendet wird. Dieses Papier vergleicht sechzehn verschiedene Länderauswahlstrategien innerhalb einer Stichprobe von achtundsiebzig Ländern zwischen 1999-2015. Dieses Papier identifiziert eine Reihe von strukturellen Ineffizienzen in den US Small-Cap-Aktienmarkt, die genutzt werden können, um Alpha zu generieren. Quantitative Analyse Von Terry Benzschawel Aufbauend auf der meistverkauften Erstausgabe, schafft der Autor Terry Benzschawel die Themen der Credit Risk Modeling Um die Realität von Defaults und Wiederherstellungen zu skizzieren, dann detaillierte Kreditmodelle und Kreditinstrumente vor der Präsentation von einigen realen Anwendungen. Youll lernen, wie zu messen, zu sichern und vorhersagen, die Kredit-Risiko-Prämie ndash zuverlässige Techniken für Geld zu verdienen in Kreditmärkte ndash und in der Lage sein, um Ihre Firma besser zu verwalten ihre Exposition gegenüber Kreditrisiko zu helfen. Bearbeitet von Dr. Chris Kenyon und Dr. Andrew Green Die neuen Herausforderungen von FVA, DVA und CVA bedeuten, dass das Handelsverhalten und die Art der Trades an diese Wertberichtigungen angepasst werden müssen. Die Redakteure Chris Kenyon und Andrew Green versammeln klassische Papiere zu diesen umstrittenen Preisanpassungen, von der Grundlagenarbeit von Hull und White über die FVA bis hin zu den neuesten Entwicklungen mit MVA und Preisgestaltung und ermächtigen Sie, sich mit der sich entwickelnden Debatte vertraut zu machen. Diese mehrjährigen Stücke werden neben neueren Arbeiten zur Regulierung und Buchhaltung platziert, die den Zugang zu den traditionellsten und modernsten Arbeiten in diesem Bereich in einem Band ermöglichen. Erfahren Sie mehr über Landmarks in XVA mit Redakteur Andrew Green in diesem exklusiven Video Edited Von Kimmo Soramki und Samantha Cook Die globale Finanzkrise fuhr nach Hause die Grenzen der traditionellen statistischen Analyse, um systemische Risiken aus strukturellen Schwächen zu identifizieren. Viele Beobachter haben erkannt, dass Wirtschafts - und Finanzmärkte Beispiele für komplexe, hochvernetzte, dynamische und adaptive Systeme sind. Die Netzwerkanalyse wird zunehmend als ein wichtiges Instrument zur Kategorisierung und Verfolgung der Schlüsselmerkmale solcher Systeme und zur Identifizierung von Bereichen mit potenzieller Verwundbarkeit angesehen. Netzwerk-Theorie und Finanzrisiko ist eine rechtzeitige Einführung in dieses wesentliche Thema. Während nicht für die mathematisch schwache des Herzens, wird es für viele Jahre dienen als eine wichtige Ressource für diejenigen, die solide technische Boden in diesem Bereich zu kommen. David M. Rowe, Ph. D. Präsident, David M. Rowe Risk Advisory und langjährige Risikoanalyse Kolumnist für Risk Magazin lsquoFinancial Netzwerke sind rund um usrsquo - so beginnt das Buch. Gibt es einen besseren Weg, um die Stärke der Nutzung der Netzwerk-Theorie auszudrücken, um finanzielle Probleme zu lösen Network Theory und Financial Risk gibt einen umfassenden Überblick über die Finanznetze und nimmt den nächsten Schritt in Richtung Anwendungen und Visualisierung. Kimmo und Samantha haben einen umfassenden Überblick über die Finanznetzwerktechniken gegeben, kombiniert mit vielen Beispielen, die die Abstraktion des Subjekts zum praktischen Verständnis bringen. Tiziana Di Matteo Professor für Ökonomie, Institut für Mathematik, Kings College London Die Finanzkrise von 2007-2009 zeigte die Gefahren der Ignorierung von Verbindungen in komplexen Systemen für Wirtschaft und Finanzen: Lehman Brothers und AIG waren damit die größten Spieler in Bezug auf Größe, aber waren Sehr stark in den Märkten verbunden und ihre Misserfolge führten zu Schocks über das Finanzsystem, die noch heute spürbar sind. Infolgedessen werden die Anwendungen der Netzwerktheorie immer mehr in der Finanzierung präsentiert, wobei die Netzwerkanalyse Antworten auf Fragen liefert, bei denen traditionelle Analysemethoden schwach sind und auch zu verbesserten Modellen über weite Arten von Risiken führen. Tatsächlich liegen Netzwerke nahezu jeder Art von Risiken, einschließlich Liquidität, Betriebs-, Versicherungs - und Kreditrisiko. Allerdings, während Netzwerk-Ansätze sind sehr nützlich, das Verständnis komplexer Netzwerke ist nicht einfach. Netzwerk-Theorie und Finanzrisiko ist ein praktischer Leitfaden für die Analyse und Modellierung von Finanznetzen. Die Autoren Kimmo Soramaki und Samantha Cook bieten eine eingehende Einführung in die Netzwerk-Theorie und untersuchen allgemeine Werkzeuge für die Netzwerkanalyse und beschreiben die Berichterstattung über vier Arten von weit verbreiteten Finanznetzwerken: Zahlungssysteme, Expositionsnetze, Handelsnetzwerke und Asset-Korrelationsnetze. Laden Sie hier Ihre kostenlose Probe von Network Theory und Financial Risk herunter. Von Alexander Denev gibt Probabilistic Graphical Models einen Überblick über PGMs (ein Framework, das Techniken wie bayesische Netzwerke, Markow-Random-Felder und Kettengraphen umfasst), die zukunftsorientierte Informationen für finanzielle Entscheidungen beinhalten und sie auf Stress-Tests, Asset Allocation, Hedging anwenden Und Kreditrisiko Dieser Ansatz beschreibt einen neuen Weg, um mit Stress-Tests (ein großer Bestandteil der Vorschriften wie CCAR, der AIFMD und Solvency II) zu kämpfen, lehrt den Leser, wie man seine Portfolios zu stärken, präsentiert eine zukunftsweisende Art und Weise der Durchführung von Heck-Hedging, und gibt Ein klares Bild des Kreditrisikos der betreffenden Institution (wie zB eine Bank oder ein Hedgefonds). Von Timothy F. Peterson Trotz des enormen Wachstums der alternativen Investition sind die Leistungsmessungspraktiken in diesem Bereich rund um die Ränder rau. Performance-Analysten, die mit der Messung und Berichterstattung über die Erträge von alternativen Vermögenswerten beauftragt sind, stellen sich mit Problemen in Bezug auf die Rückgabemethode für die Nutzung, die Nutzung von negativen Nennern in der Renditeberechnung, eine Vielzahl von Bewertungsproblemen und Herausforderungen im Zusammenhang mit dem Benchmarking dieser einzigartigen Strategien. Performance Measurement for Alternative Investments ist die erste seiner Art zu erklären, wie diese großen Hürden zu überwinden, und versucht zu helfen, zwei Welten zu vereinen, die bisher ziemlich gut auseinander gehalten wurden: die des Performance-Analytikers, der versucht, die Ergebnisse an die Stakeholder zu vermitteln, und das Des Portfoliomanagers für Investitionsentscheidungen verantwortlich. Werfen Sie einen Blick auf die Einführung hier Autor Timothy Peterson, ein Partner bei Ashland Partner mit Exekutivverantwortung für über 100 Kundenbeziehungen, einschließlich der Firmen größte ldquohousehold namerdquo Klienten, ist ein Investitionsleistungsmessungsexperte, der auf alternative Vermögenswerte spezialisiert ist. Von Paolo Sironi Zielbasierte und langfristige Portfolio-Auswahl Modernes Portfolio-Management bietet eine Methodik für die Portfolio-Auswahl, die auf modernen Risikomanagement-Techniken basiert und eine klarere Definition des Investment-Riskreturn-Profils, um eine zielorientierte Investition und eine probabilistische Szenario-Optimierung zu ermöglichen. Die Finanzmärkte haben eine Zeit der Belastung erfahren, die die vertrauenswürdige Beziehung zwischen Investoren und Finanzberatern angespannt hat, neue Regulierungen wurden dazu veranlasst, im Rahmen der Investitionsentscheidungen ein höheres Maß an Transparenz und risikobasierter Kommunikation voranzutreiben. Dies hat die Suche nach besseren Portfolio-Optimierungstechniken entzündet, die die Mehrwert-Asymmetrie von realen Produkten (wie sie stark zu den Vor-Krisen-Budgets beigetragen haben) mit den Lebenszyklusanforderungen der Investoren kombinieren, unterstützt durch intuitive grafische Darstellung von scheinbar komplexen mathematischen Beziehungen zwischen realen Portfolios und Produkten nach Regulierung. Nach dem Lesen des modernen Portfoliomanagements. Die Leser werden die Bedeutung der Simulation von realen Wertpapieren (insbesondere festverzinslichen und strukturierten Produkten) bei der Erstellung von optimalen Portfolios sowie die Bedeutung der Simulation von Finanzinvestitionen im Laufe der Zeit verstehen, um auf transparente Weise konkrete Ziele und Zwänge anzupassen, anstatt sich ausschließlich zu verlassen Vergangene Leistung oder persönliches Urteil. Herausgegeben von Alexander Lipton Alex Lipton, ein hoch aufragenden Experte auf dem Gebiet der quantitativen Modellierung in der Finanzierung, und der erste Empfänger des Quant of the Year Award von Risk Magazine, hat diese Sammlung der Seminararbeiten zusammengestellt, die ihren jeweiligen Autoren die prestigeträchtige Auszeichnung gewannen Das ist jetzt in seinem fünfzehnten jahr. Quant des Jahres 2000-2014 ist ein Muss für beide anspruchsvolle Quants und etablierte Praktiker. Die neue Generation der Quants wird entdecken, was die Meister in den vergangenen Jahren gemacht haben und aus ihrer Erfahrung lernen, während erfahrene Quants die Schlüsselentwicklungen auf dem Gebiet mehr oder weniger seit dem Beginn der Aufzeichnung erhalten. Die Papiere, die in Quant des Jahres 2000-2014 gesammelt wurden, decken die wichtigsten und relevanten Themen der Finanzplanung ab. Ihre chronologische Sequenz gibt eine einzigartige Perspektive auf die Entwicklung des Feldes, die nicht auf andere Weise erhalten werden kann. Bearbeitet von Eduardo Canabarro und Michael Pykhtin Beitritt zur Aktualisierung ihrer jeweiligen Bestseller Counterparty Credit Risk und Counterparty Credit Risk Modeling. Die Redakteure Eduardo Canabarro und Michael Pykhtin haben ein Expertenteam zusammengestellt, um im Rahmen der Finanzkrise ein umfassendes und kontextualisiertes Verständnis des aktuellen Standes und der zentralen Themen des Kontrahentenrisikomanagements zu schaffen. Michael ist der wohlverdiente Empfänger von Risk Magazinersquos Quant of the Year Award für 2014. ldquoEduardo Canabarro und Michael Pykhtin sind international anerkannte Experten auf Kontrahenten Kreditrisiko. Sie haben eine beeindruckende Gruppe von Praktikern, Akademikern und Regulierungsbehörden zusammengestellt, die Kapitel über eine Reihe wichtiger aktueller Themen in Bezug auf die Regulierung, die Belichtungsmodellierung, die Preisgestaltung und die Absicherung, die Stressprüfung und die Sicherheitenverwaltung des Kontrahentenrisikos geschrieben haben. rdquo Evan Picoult , Managing Director, Franchise Risk Architecture, Citi und Adjunct Professor, Columbia Business School Edited Von Andrew Rudd und Stephen Satchell Hohe Nettovermögen Investition befindet sich in einer Quant Revolution. Wohlhabende Kunden erwarten von ihren Portfoliomanagern eine anspruchsvollere Analyse und so wird die Anwendung von quantitativen Techniken für hochverzinsliche Investitionen (HNW) immer beliebter. Quantitative Ansätze für High Net Worth Investment ist die erste Buchlängenbehandlung von quantitativen Methoden für HNW-Investitionen für Familienoffiziere, Berater von Familienfonds, HNW-Einzelpersonen und deren Vermögensverwalter. Bearbeitet von Massimo Morini und Marco Bianchetti Typische Literatur zum Thema Zinsmodellierung basiert auf der Übernahme von risikofreien Zinsmärkten. Offensichtlich hält diese Annahme nicht mehr Wasser. Als Folge der Krise wurden die Marktteilnehmer auf Risikofaktoren hingewiesen, die bisher vernachlässigt wurden. Dieses Wissen hat zu wichtigen Veränderungen in den Marktdaten der Marktdaten und zu neuen Ansätzen in der Zinsmodellierung geführt. Da sich die Zinsmärkte in dieser neuen Landschaft weiter innovieren und ausbauen, wird es immer wichtiger, mit den neuesten praktischen und theoretischen Entwicklungen auf dem Laufenden zu bleiben. In der Zinsmodellierung nach der Finanzkrise adressieren Massimo Morini und Marco Bianchetti diese Änderungen und erläutern diese Änderungen, sammeln die neuesten Ideen für die Modellierung von Nachkrisen und die Anwendung neuer Methoden zur Marktdaten - und Marktpraxis. Machine Learning Trading Systems Die SPDR SampP 500 ETF (SPY) ist eines der am weitesten gehandelten ETF-Produkte auf dem Markt, mit rund 200 Mrd. Euro und einem durchschnittlichen Umsatz von knapp 200 Mio. Aktien täglich. So scheint die Wahrscheinlichkeit, in der Lage zu sein, ein Geldverkäufe-Handelssystem zu entwickeln, das öffentlich verfügbare Informationen verwendet, scheinen, um zu sein. Also, um uns eine Kampfchance zu geben, werden wir uns auf einen Versuch konzentrieren, die Übernacht-Bewegung in SPY vorherzusagen, indem wir Daten von der vorherigen Tag8217s Session verwenden. Zusätzlich zu den offenen und engen Preisen der vorausgegangenen Tagessitzung haben wir eine Reihe weiterer plausibler Variablen ausgewählt, um den Merkmalsvektor zu bauen, den wir in unserem maschinellen Lernmodell verwenden werden: Das Tagesvolumen Der vorherige Tag8217s Schlusskurs Die 200 - Tag, 50-tägige und 10-tägige gleitende Durchschnitte des Schlusspreises Die 252 Tage hohen und niedrigen Preise der SPY-Serie Wir werden versuchen, ein Modell zu erstellen, das die Übernacht-Rückkehr in der ETF prognostiziert, dh O (t1) - C (t) C (t) In dieser Übung verwenden wir die täglichen Daten vom Beginn der SPY-Serie bis zum Ende des Jahres 2014, um das Modell zu bauen, das wir dann auf Ausfalldaten von Jan 2015- Aug 2016. In einem Hochfrequenz-Kontext würde eine beträchtliche Zeitspanne ausgegeben, um die Daten zu bewerten, zu reinigen und zu normalisieren. Hier stellen wir uns weit weniger Probleme gegenüber. Typischerweise würde man die Eingangsdaten standardisieren, um den Einfluss von Variablen auszugleichen, die auf Skalen von sehr unterschiedlichen Größenordnungen gemessen werden können. Aber in diesem Beispiel werden alle Eingangsvariablen, mit Ausnahme des Volumens, auf der gleichen Skala gemessen, und so ist die Standardisierung wohl unnötig. Zuerst werden die In-Sample-Daten geladen und verwendet, um einen Trainingssatz von Regeln zu erstellen, die den Merkmalsvektor auf die Variable von Interesse abbilden, die Übernacht-Rückkehr: In Mathematica 10 führte Wolfram eine Reihe von maschinellen Lernalgorithmen ein, die Regression, den nächsten Nachbarn beinhalten , Neuronale Netze und zufällige Wälder, zusammen mit Funktionalität zur Bewertung und Auswahl der leistungsfähigsten Maschine Lerntechnik. Diese Einrichtungen machen es sehr geradlinig, ein Klassifikator oder Vorhersagemodell mit Hilfe von maschinellen Lernalgorithmen zu erstellen, wie zum Beispiel dieses Handschrifterkennungsbeispiel: Wir erstellen ein prädiktives Modell auf dem SPY Trainingset und erlauben es Mathematica, den besten Lernalgorithmus zu wählen: Es gibt eine Reihe von Optionen für die Predict-Funktion, die verwendet werden kann, um die Feature-Auswahl, Algorithmus-Typ, Performance-Typ und Ziel zu steuern, anstatt einfach die Standardwerte zu akzeptieren, wie wir hier getan haben: Nachdem wir unsere Maschine Lernmodell gebaut haben, laden wir die Out-of - Beispieldaten von Jan 2015 bis Aug 2016 und erstellen Sie einen Test-Set: Als nächstes erstellen wir ein PredictionMeasurement-Objekt mit dem Nearest Neighbor-Modell. Das kann für die weitere Analyse verwendet werden: In den Modellprognosen gibt es viel Dispersion, die alle einen positiven Wert haben. Eine übliche Technik in solchen Fällen besteht darin, den Mittelwert von jeder der Prognosen zu subtrahieren (und wir können sie auch durch die Teilung durch die Standardabweichung standardisieren). Das Scatterplot der tatsächlichen vs Prognose über Nacht Rückkehr in SPY jetzt sieht so aus: Es8217s noch ein offensichtlicher Mangel an Dispersion in den Prognose-Werte, im Vergleich zu den tatsächlichen über Nacht Renditen, die wir durch Standardisierung zu beheben. Auf jeden Fall scheint es eine kleine, nichtlineare Beziehung zwischen Prognose und Ist-Werten zu geben, die eine Hoffnung ausmacht, dass das Modell sich noch als nützlich erweisen kann. Von der Prognose bis zum Handel Es gibt verschiedene Methoden der Bereitstellung eines Prognosemodells im Rahmen der Erstellung eines Handelssystems. Die einfachste Route, die wir hier nehmen werden, besteht darin, ein Schwellwert-Gate anzuwenden und die gefilterten Prognosen direkt in ein Handelssignal umzuwandeln. Aber auch andere Ansätze sind möglich: Kombinieren der Prognosen von mehreren Modellen zur Erstellung eines Vorhersage-Ensembles Verwendung der Prognosen als Eingaben in ein genetisches Programmiermodell Fütterung der Prognosen in die Eingabeschicht eines neuronalen Netzwerkmodells, das speziell für die Erstellung von Handelssignalen entwickelt wurde Als Prognosen In diesem Beispiel erstellen wir ein Handelsmodell, indem wir einen einfachen Filter auf die Prognosen anwenden und nur diejenigen Werte auswählen, die einen bestimmten Schwellenwert überschreiten. Dies ist ein Standard-Trick verwendet, um das Signal im Modell aus dem Hintergrundrauschen zu isolieren. Wir akzeptieren nur die positiven Signale, die den Schwellenwert überschreiten, wodurch ein langwieriges Handelssystem geschaffen wird. D. h. wir ignorieren Prognosen, die unter den Schwellenwert fallen. Wir kaufen SPY am Ende, wenn die Prognose die Schwelle überschreitet und eine beliebige Long-Position am nächsten Tag verlassen8217s offen. Diese Strategie produziert die folgenden Pro-forma-Ergebnisse: Fazit Das System hat einige recht attraktive Features, darunter eine Win-Rate von über 66 und ein CAGR von über 10 für die out-of-Probe Zeitraum. Offensichtlich ist dies eine sehr einfache Illustration: Wir wollen in den Handelsprovisionen fakturieren, und der Schlupf, der in den Post - und Pre-Market-Perioden eingetreten ist und die in der Post - und Pre-Market-Periode auftritt, wird sich natürlich negativ auf die Performance auswirken. Auf der anderen Seite haben wir kaum begonnen, die Oberfläche in Bezug auf die Variablen zu kratzen, die für die Aufnahme in den Merkmalsvektor in Betracht gezogen werden könnten und die die Erklärungskraft des Modells erhöhen können. Mit anderen Worten, in Wirklichkeit ist dies nur der Anfang eines langwierigen und anstrengenden Forschungsprozesses. Nichtsdestoweniger sollte dieses einfache Beispiel ausreichen, um dem Leser einen Vorgeschmack darauf zu geben, was8217s beim Aufbau eines prädiktiven Handelsmodells mit maschinellen Lernalgorithmen beteiligt ist.

No comments:

Post a Comment