Blank Images / Leere Bilder Problem bei Google Maps lösen

Vielleicht hattet / habt ihr das Problem, dass alle oder zumindest manche Google-Maps Bilder nicht richtig angzeigt werden?

 

 

 

 

 

Das Problem sind Fehlerhafte Cookies. Um es zu lösen geht unter: chrome://settings/content/cookies  und  klickt auf “See all cookies and site data” und sucht im Suchfeld (Im Feld steht:”Search Cookies”) nach “www.google.com”. Es erscheint dann folgender Eintrag:

Klickt den Eintrag an und ihr bekommt folgende Detailansicht:

Das Problem liegt jetzt in einem oder mehreren Cookies mit dem Format:

gsScrollPos-<ZAHL>

Mir ist leider keine einfache Methode bekannt mit der man jetzt den oder die fehlerhaften unter diesen Einträgen identifizeren könnte. Es ist daher am einfachsten, ihr löscht sie einfach alle durch Klick auf das ‘x’ daneben.

Diese Cookies speichern jeweils ob man gescrollt hat – es sollten demnach keine anderen Auswirkungen resultieren. Cookies, die Google benötigt legt es sonst wieder an.

Viel Spaß nun wieder beim Nutzen von Google Maps!

Machine Learning in der Praxis – Teil 1 – Was ist Machine Learning?

Liebe Leser,

in dieser Serie von Artikeln will euch ein ganzheitliches Verständnis über Machine Learning vermitteln. Wir werden eine Reihe von Algorithmen kennenlernen, wir werden uns dazu verschiedene Typen von Lernverfahren anschauen. Darunter sind sog. überwachte Lernverfahren wie Regression, Klassifikation (z.B. mit Support Vector Machines) sowie unüberwachte Lernverfahren wie Clustering (hierarchische und nicht-hierarchische Verfahren wie z.B. k-Means ) und schließlich werden wir zu Deep-Learning mit neuronalen Netzwerken übergehen und uns Bilderkennung und Reinforcement-Learning anschauen. Euch sagen viele dieser Begriffe nichts oder ihr habt nur eine vage Vorstellung davon? Dann ist diese Artikelserie für euch richtig!

Wir werden uns zu jedem Verfahren die zugrunde liegende Intuition und Theorie aus der Vogelperspektive anschauen, Anwendungen mit scikit-learn in Python kennenlernen. Dafür werden wir anhand realer Daten sehen, was die Verfahren von uns als Input erwarten, was wir als Output erhalten können, und wie wir diesen interpretieren können.

Schließlich wollen wir uns aber auch die genaue Funktionalität anschauen, indem wir die zugrundeliegende Mathematik nachvollziehen und noch tiefer eintauchen. Dafür werden wir die Verfahren in einfacher Weise selbst programmieren. Das wird euch letztlich helfen, die Verfahren wirklich zu verstehen, was euch in Zukunft helfen wird, wenn ihr die Verfahren auf neue Problemstellungen anwenden werdet.

Voraussetzungen sind Grundkenntnisse in Python 3. Es schadet nicht, wenn ihr euch etwas in Wahrscheinlichkeitsrechnung und Statistik auskennt. Es ist aber keine zwingende Voraussetzung. Ich will versuchen es einfach zu halten.

Was ist Machine Learning? Ein erstes Beispiel.

Machine Learning ist nicht alt. Die Forschungsgeschichte beginnt in etwa in den 1950er Jahren. Machine Learning ist die Wissenschaft oder Kunst, Maschinen (bzw. Computer) so zu programmieren, dass diese selbstständig aus Daten lernen können.

Arthur Samuel (Quelle: Wikipedia)

Arthur Samuel definierte etwas allgemeiner im Jahre 1959: Machine Learning ist die Erforschung von Methoden, Maschinen die Fähigkeit zu geben zu lernen, ohne sie explizit zu programmieren.

Eine quantitativere Definition ist die folgende: Eine Machine lernt aus einer Menge Daten D, in einer bestimmten Aufgabe A in Bezug auf ein Leistungsmaß L besser zu werden, wenn die Leistung in Bezug auf A gemessen in L mit der Menge D zunimmt.

Letztlich geht es darum, sich das Leben einfacher zu machen und Wissen nicht explizit in Form von Regeln programmieren zu mussen, sondern einer Maschine ein Verfahren zu geben, mit dem sie selbstständig lernt. Ein Beispiel ist der Spamfilter. Er erkennt anhand von Beispielen für Spam und Nicht-Spam (“Ham”) neuen Spam und Ham. Weil er mit Beispielen arbeitet, die ihm sagen, wonach er suchen soll, spricht man dabei von einem sog. überwachten Lernverfahren. Eine sehr simple Methode, Spam zu erkennen wäre folgende: jede neue E-Mail wird mit einer Liste von Spam-E-Mails vergleichen, von denen der Spamfilter bereits weiß, dass sie Spam sind. Es muss dann aber nur ein einzelnes Wort, ja nur ein einzlener Buchstabe in einer neuen Spam-E-Mail anders sein als in einer der bereits bekannten Spam-E-Mail und der Spamfilter würde diese E-Mail nicht mehr als Spam erkennen. Ihr könnte euch vorstellen, dass durch Austauschen oder Hinzufügen von Zeichen in bereits bekannte Spam-E-Mails unbegrenzt viele neue Varianten von Spam enstehen könnten. Es ist also kein sinnvolles Verfahren, Spam-E-Mails durch “Auswendiglernen” bzw. durch von Hand programmierte Regeln zu erkennen. Besser wäre es, wir hätten ein Verfahren, dass Spam-E-Mails automatisch, möglichst zuverlässig detektiert, ohne “echte” E-Mails auszusortieren. Wir brauchen ein echtes Vorhersageverfahren.

Hier kommt Machine Learning ins Spiel. Eine Möglichkeit wäre nun, dass ein Verfahren lernt, welche Worte häufiger in Spam und welche häufiger in Ham vorkommen. Ein Machine-Learning-Verfahren könnte nun die Wahrscheinlichkeit, ob eine Mail Spam oder Ham ist aus der Anzahl Worte ableiten, die eher in Spam oder eher in Ham auftreten.

Eine der ersten hierfür eingesetzten Methoden war der sogenannte Naive Bayes Filter. Es handet sich dabei um ein überwachtes Lernverfahren und genauer eine sog. Klassifizierungsmethode. Sie klassifiziert E-Mails entweder als Spam oder Ham.

Zu Anfang weiß der Naive-Bayes-Filter nichts. Er braucht zunächst Daten D. Diese bekommt er von uns, die wir E-Mails lesen und als Spam markieren. Immer wenn du oder ich eine E-Mail als Spam markieren, kann der Spamfilter lernen, dass die Worte aus der Spam-E-Mail für Spam typisch sind. Tritt nun in vielen Spam-E-Mails immer wieder das Wort “Viagra” auf, so werden diese in Zukunft herausgefiltert. Der Naive Bayes Filter wird mit den von uns gelieferten Daten D, in seiner Aufgabe A Spam zu erkennen in puncto Leistungsmaß “Anteil richtig erkannter Spam-E-Mails” L mit zunehmender Menge Daten D besser.

Wir werden in den nächsten Kapiteln weitere Aufgaben und weitere Methoden kennenlernen.

Wir leben im goldenen Zeitalter des Machine Learning!

Wir leben in einer aufregenden Zeit! Ihr könnt heute das Machine Learning Verfahren eurer Wahl auf  100.000 Euro teurer Hardware bei z.B. Amazon AWSGoogles Cloud oder Microsoft Azure oder vielen anderen Anbeitern auf Terrabytes von Daten anwenden und Modelle erhalten – zum Spaß, für eure Softwareprojekte oder eure Businessidee. Und das Ganze für wenige Euros pro Stunde. Gleichzeitig sind über Programmiersprachen wie Python und Module wie scikit-learn Machine-Learning-Verfahren auch für wenig erfahrene Entwickler verfügbar. Viele Verfahren lassen sich auch ohne Verständnis ihrer genauen Funktionsweise sofort anwenden. Wer es etwas genauer Wissen will und bessere Ergebnisse erzielen will und erfahren will, für welches Problem, welches Verfahren am besten geeignet ist, für den ist diese Aritkelserie!

Im nächsten Teil werden wir uns Machine Learning noch etwas genauer aus der Vogelperspektive anschauen und lernen, welche Arten von Verfahren es gibt. Im übernächsten Artikel werden wir bereits eine erste Aufgabe und eine praktische Lösung dafür kennenlernen.

Viel Spaß und beste Grüße

Frank Wolf

 

How to ignore *.pyc files in Atom

You are furious about all theses *.pyc files in you workfolder? I hear you. Here is how you can get rid of them.

  • Go to Atom -> Preferences -> Core Tab
  • Scroll down to “Ignored Names”
  • add -> *.pyc

 

 

  • in Packages -> type: tree-view
  • click on the card “tree view”
  • check the checkbox next to “Hide Ignored Filenames”

 

 

 

 

  • You are done! Time to be happy again 🙂

3. Platz auf dem Bertelsmann Hackathon

Anfang April war wieder der Bertelsmann Hackathon im Denkwerk in Herford. Designer, Programmierer und Softwarevisionäre entwarfen und bauten dort über die nächsten 36 Stunden an coolen Lösungen für Challenges aus den Tochterfirmen der Arvato-Unternehmensbereichs. Arvato gehört zum Bertelsmannkonzern und betreibt Servicecenter und IT-Systeme und bietet weltweit u.a. Logistik- und Finanz- und IT-Dienstleistungen.

Hier ein paar Worte einiger Teilnehmer, Teamkollegen und mir im Film zum Bertelsmann Hackathon 2018.

Zu fünft haben wir an einer Lösung gearbeitet Bluethooth Beacons (Bluethoothsender) zur Ortung im Raum einzusetzen.  Wir haben Raspberry Pis mit Bluethooth Dongle im Raum verteilt, die die Beacons empfangen können und aus den anfallenden Entfernungsdaten die räumliche Position der Beacons berechnet. Ich habe zusammen mit zwei Teamkollegen an der Software gearbeitet. Jeweils ein Teamkollege haben am Flask-Backend und einer an der Rapsberry Pi Programmierung gekümmert (Python). Ich habe mich um Berechnungsverfahren (Trilateration), Frontend (Vanilla JS + heatmap.js) gekümmert und die Kommunikation im Softwareteam moderiert. Zwei weitere Teammember haben sich um Businessmodell, Kommunikation, Marketing und Sales gekümmert. Sie sind sogar  “auf die Straße” gegangen und haben in Startup-Weekend-Tradition echte Kunde angesprochen und sie um ihr Feedback bzw. nach ihrem Interesse gefragt. Die Ergebnisse waren gut und wir waren gespannt auf das Feedback der Jury am Sonntag. Bevor wir dazu kommen ein paar Worte zur Hackathons allgemein und im besonderen des Bertelmann Hackathons.

Warum solltest auch du an einem Hackathon teilnehmen?

Hackathons sind eine großartige Gelegenheit dazuzulernen. Sie sind meist kostenlos, es gibt meist Verpflegung und Unterkunft und oft auch eine Reisekostenerstattung – was insbesondere für Stundenten und junge Professionals interessant sein kann. Alle diese Bedingungen waren beim Bertelsmann Hackathon erfüllt.

Ich kann jedem – egal wie fit ihr im Coden seid. Der Erfolg von Softwareprojekten liegt in der Zusammenarbeit der Teammitglieder und/oder von Kunden und Auftraggebern. Es kommt darauf an mit Menschen unterschiedlicher Hintergründe und unterschiedlichen Fähigkeiten gut zusammenzuarbeiten. Ich denke es gibt keinen besseren Weg als das auf einem Hackathon zu lernen. Man lernt definitiv viel neues kennen: übers Entwernfen, Coden, Teambildung und Zusammenarbeit. Und natürlich nette Leute – unter den Teilnehmern und Veranstaltern. Man gewinnt zudem  hautnahe Einblicke in die Arbeit eines interessanten Unternehmens und Konakte zu Mitarbeitern und Personalern.

Trotzdem ich bereits seit vielen Jahren arbeite, macht mir das Format immer noch großen Spaß und es gibt immer wieder vieles neues zu lernen – so sind Hackathons unabhängig von der Erfahrungsstufe ein tolles Event.

Warum sich die Teilnahme am Bertelsmann Hackathon lohnt

Den Bertelsmann Hackathon fand ich insbesondere gut, da es viele unterschiedliche Challenges gab, bei denen viele aktuell Technologie zum Einsatz kam: Roboter, verteilte Systeme, Blockchain, Bilderkennung und Bots.  In der Vorstellung der Challanges hat man zudem gute Einblicke in vier verschiedene Unternehmen von Arvato erhalten. Auch ist das Denkwerk als Location absolut genial. Nicht nur war das Essen gut, sondern es gab auch Möglichkeiten zum Trainieren, Schlafmöglichkeiten sowie angenehm eingerichtete Arbeits- und Gruppenräume sowie Rückzugsräume, um auch tagsüber mal 30min Ruhe tanken zu können. Das Arvato-Team hat zudem erfolgreich für eine angenehme Atmosphäre gesorgt und interessante Einblicke in ihren Arbeitsalltag gegeben. Ansprechpartner waren praktsch 24/7 anwesend und ansprechbar.

3. Platz!

Für uns hat sich die Teilnahme gleich doppelt gelohnt. Nicht nur hatten wir großen Spaß, sondern konnten als eines von drei Teams am Sonntag die Jury mit unserer Lösung überzeugen und haben so den 3. Platz gemacht und jeder einen Raspberry Pi gewonnen. Nicht schlecht für eine kostenlose Veranstaltung.

Also, ich kann euch Hackathons speziell und den von Bertelsmann im bersonderen empfehlen. Schaut doch nächstes Jahr einmal vorbei! Vielleicht lernen wir uns dann dort kennen!

Hackathons nach Ort findet ihr übrigens hier:

Ich werde als nächstes wahrscheinlich zum Healthcare Hackathon im September nach Kiel gehen.

Mit Rambox Ordnung ins Messenger-Chaos bringen

Liebe Leser,

ich bin vor einigen Tagen auf Rambox gestoßen und habe es mir nach und nach eingerichtet. Rambox ist eine Anwendung für Windows, Mac und Linux, in der ihr (fast) alle gängigen Messenger in einer Anwendung zusammenfassen könnt.

Ich verwende es u.a. mit Mattermost, Telegram, Whatsapp, Skype und Google Hangouts.

Die Einrichtung ist einfach und wird über leicht nachvollziebare Dialoge begleitet.

Rambox macht das Schreiben von Nachrichten sehr viel angenehmer mit individuellen Messenger-Apps auf dem Telefon, Laptop oder im Browser.

Schaut’s auch mal an!

Euch eine gute Zeit!

Frank Wolf

Was ist eigentlich statistische Signifikanz?

Statistische … was?

Wenn etwas statistisch signifikant ist, sagen wir, dass das Ergebnis einer Untersuchung (z.B. der Wirkung eines Medikamentes) nicht zufällig gewesen sein kann.

Die statistisch Signifikanz (der sog. p-Wert) gibt an wie unwahrscheinlich es ist, dass das Ergebnis einer Untersuchung zufällig passiert ist. Je kleiner er ist, desto unwahrscheinlicher, dass der Zufall am Werk war. Umgekehrt halten wir ein statistsiches signifikantes Untersuchungsergebnis für ein Ergebnis, dass nicht zufällig passiert ist.

Was?!

Schauen wir uns dazu ein einfaches Beispiel an.

Ein einfaches Beispiel: Kinder beim Zähneputzen.

Kinder sollen sich abends vor dem Schlafengehen die Zähne putzen. Bei mir war das so und bei den meisten Kindern, die ich kenne, ist das auch heute noch so. Und, es hat sich nicht viel geändert, seit ich klein war: Kinder haben noch immer nicht so große Lust dazu. Also muss man sie immer wieder daran erinnern. Sagen wir eine Mutter erinnert ihre Tochter Jule, sie soll sich die  Zähne putzen. Jule entgegnet nun aber: “Ich habe mir schon die Zähne geputzt!” Allerdings ist ihre Zahnbürste noch trocken.

Unsere Schlussfolgerung ist: da die Zahnpürste noch trocken ist, ist es unwahrscheinlich, dass sich Jule schon die Zähne geputzt hat. Ihre Mutter wird also davon ausgehen, dass Jule die Zähne noch nicht geputzt hat und sie nochmals ins Bad schicken.

Aus Sicht des Statistikers sieht die Situation so aus:

  • Daten: die Zahnbürste ist trocken
  • Hypothese: Jule hat sich die Zähne schon geputzt
  • Folgerung: falls die Hypothese wirklich wahr wäre, wären die Daten außergewöhnlich, daher verwerfen wir diese Hyothese und nehmen die stattdessen ihr Gegenteil (Jule hat ihre Zähne noch nicht geputzt) als wahr an

Wie bereits am Anfang gesagt: die statistische Signifikanz gibt an wie wahrscheinlich es ist, dass das Ergebnis einer Untersuchung zufällig ist.

Probleme bei statischen Tests

Interessant ist auch folgendes: nur, weil wir ein Test aussagt, dass eine Untersuchung statistische signifikant wahr, heißt das noch lange nicht, dass sie auch notwendigerweise wahr ist. Beispielsweise hätte Jule auch so vor dem Zähneputzen drücken können, indem sie die Zahnbürste einfach eine Sekunde unter laufendes Wasser hält. Dann ist sie nass und es erscheint so, als ob sie sich die Zähne geputzt hätte – zumindest, wenn wir die Trockenheit bzw. Nassheit der Zahnbürste als alleiniges Kritierum für die Untersuchung heranziehen. Um also sicher zu gehen müssten noch weitere Faktoren untersucht werden: z.B. Füllstand der Zahnpastatube oder die Menge Wasser, die durch den Wasserhahn gelaufen ist, als sie im Bad war. Man könnte auch ihren älteren Bruder befragen usw. Auch diese Messwerte könnten ihre Probleme haben, geben uns aber zunehmend mehr Sicherheit für das Für und Wider der Hypthese.

Ein weiterer Punkt: wir können uns nie 100% sicher sein. Wenn ihre Mutte Jule z.B. um 18:00 daran erinnert hat Zähne zu putzen und Jule das sofort gemacht hat, der Tag warm war und im Bad die Heizung voll aufgedreht, weil es nachts noch kalt gewesen war, dann ist es nicht ausgeschlossen, dass die Zahnbürste 2 Stunden später schon wieder außen trocken ist und die Mutter, die die Zahnbürste nur äußerlich kontrolliert hat nun zu der Schlussfolgerung gekommen ist, die Zahnbürste wäre trocken.

Die Resultate solcher Untesuchungen sind immer nur mit einer bestimmten Wahrscheinlichkeit zutreffend oder unzutreffend.

Akzeptable Irrtumswahrscheinlichkeit

Häufig fordern Experimente oder Untersuchung ein sog. Signifikanzniveau. Oft liegt das bei 5%. In Formeln sagt man: p < 0.05 muss erfüllt sein. p ist der sog. Wahrscheinlichkeitswert. Und wir akzeptieren Untersuchungen dann, wenn Fehler in weniger als einem von 20 Fallen auftreten – bzw. in weniger als 5% der Fälle. Daher spricht man von einem 5%-Signifikanzniveau.

Beispiel: Wirkt das Medikament?

Betrachten wir z.B. die Wirksamkeit eines Medikaments. Ein Signifikanzniveau von 5% heißt nun, dass sofern wir sehen, dass ein Medikament statistisch signifikant wirksam ist, die Wahrscheinlichkeit, dafür, dass das reiner Zufall ist bei 5% liegt.

Zwar wird ein Wert von 5% oft verwendet, ist aber willkürlich. Gerade bei Medikamententest möchten wir vielleicht lieber ein Signifikanzniveau von 1% oder sogar 0,1%. Wir wollen also, dass die Irrtumswahrscheinlichkeit für die Wirksamkeit des Medikaments geringer ist.

Ergibt ein Signifikanztest beim Vergleich von zwei Gruppen von Patienten – eine mit und eine ohne Medikament – eine Heilungsdifferenz von 10% zugunsten der Gruppe mit Medikament und ergibt sich ferner dafür ein p-Wert von 0,0005, dann bedeutet das: die Wahrscheinlichkeit dafür, dass die Gruppe mit Medikament 10% schneller geheilt ist, ist mit einer Wahrscheinlichkeit von 0.05% auf den Zufall zurückzuführen. Also sehr unwahrscheinlich zufällig und daher sehr wahrscheinlich auf das Medikament zurückzuführen!

Wobei natürlich auch für diese Untersuchung ähnlich wie für die Betrachtung von Jule beim Zähneputzen gilt: auch, wenn die Untersuchung sehr für das Medikament spricht, kann es immer noch sein, dass wir nicht richtig oder nicht genug messen. Es könnte z.B. sein, dass die Gruppe mit Medikament im Mittel 20 Jahre jünger war, als die Gruppe ohne Medikament oder die Gruppe mit Medikament könnte sich jeden Tag Blaubeeren reinhauen, die entweder unabhängig vom und gemeinsam mit dem Medikament die Heilung positiv beeinfluss haben könnte. Daher ist es wichtig wie wir die Patienten für Studien oder allgemeiner die Attribute für unsere Untersuchung auswählen und zudem die Zusammenhänge zwischen den Attributen und dem Ergebnis untersuchen. Für Experimente, deren Ergebnis möglichst zweifelsfrei auf die Maßnahme (hier: das Medikament) zurückgeführt werden kann, müssen wir die Auswahl der Stichproble (hier: der Patienten) randomisieren, also zufällig gestalten und zusätzlich für wichtige Attribute kontrollieren: z.B. Alter, Ernährungsgewohnheiten, andere Erkrankungen, bestimmte Genausprägungen usw., wovon wir wissen, dass es die Untersuchungsergebnisse verfälschen könnte.

Im nächsten Artikel möchte ich zeigen wie man für einen konrekten Fall einen p-Wert berechnen kann.

Udacity – Deep Learning Nanodegree: Was ist Deep Learning?

Seit November 2017 nehme ich am Deep Learning Nanodegree von Udacity teil. Deep Learning ist ein Machine Learning Ansatz, der auf künstlichen neuronalen Netzwerken (KNN) aufbaut. Inspiriert wurde dieser Ansatz von natürlichen Neuronensystemen, aus denen Nervengewebe und vor allem das Gehirn besteht. Im Gegensatz zum “Shallow Learning”, in dem nur eine Schicht künstlicher Neuronen zur Datenanalyse verwendet werde, verwenden “Deep Nets” (“tiefe oder besser: vielschichte Netzwerke) mehrere übereinander gestapelte Schichten aus Neuronen. So können, die Informationen – z.B. die eines Bildes, dessen Inhalt erkannt werden soll – auf der einen Seite als Pixel in das Netzwerk eingegeben werden und von Schicht so zu Schicht können so aus abstrakteren Einheiten konkreter Bildelemente erkannt werden. Im Beispiel können das z.B. in der ersten Ebene die groben Pixel, in der zweiten Ebene, Kanten und Ecken sein, in der zweiten Ebene einfache Formen wie Kreise, Ovale, Rechtecke und Trapeze und noch eine Ebene höher konkrete Bildeinheiten wie Haare, Stuhllehnen, Knöpfe, Wangen und Nasen und noch eine ebene höher, dann z.B. ein Hund von einem Huhn unterschieden werden. Die Vielschichtigkeit ist das Geheimnis und die Innovation von Deep Learning.

Heute gehören die diversten KNN-Verfahren – darunter Convolutional neural networks, rekurrente neuronale Netzwerke, Generative adversarial networks oder Deep reinforcement learning zu den Go-To-Methoden für die Lösung verschiedenster Probleme: darunter Spracherkennung, Spracherzeugung, Texterkennung, automatische Textübersetzung, Bilderkennung, Computer-KI-Systeme für Computerspiele, selbstfahrende Autos u.v.m. – konkret sind das Sprachassistenten wie Googles Assistent oder Amazons Echo oder die automatische Erkennung von Stimmungen in Chattexten oder Rezensionen (sog. Sentiment Analyse), in Bildern können Hunde, Hunderassen erkannt aber auch bösartige Tumore entdeckt werden, in Computerspielen haben zunehmend die Computer die Hosen an: die Schachtrophäe ging ja bereits 1998 von Kasparov an Deep Blue über, seit 2015 triumphieren aber auch Computer im intuitiven Spiel Go über Fähigkeiten menschlicher Weltmeister, auch sind autonome Fahrzeuge auf den Vormarsch – z.B. in den Logistikzentren und Lagerhallen großer Online-Versandhäuser.

Die Theorie neuronaler Netzwerke (KNN) beginnt  im Jahr 1943 mit Warren McCulloch und Walter Pitts. Sie berschreiben, das KNN theoretisch beliebige Berechnungen anstellen könnten. Trotz erster Erfolge – beispielsweise die kommerzielle Anwendung erster KNN zur automatischen Echofilterung in Telefonaten im Jahr 1960, die auf Arbeiten von Bernard Widrow und Marcian E. Hoff das ADALINE (ADAptive LInear NEuron) zurückgingen, geriet die Forschung um KNN zunächst in Stocken. Grund dafür waren mathematische Probleme, die Seymour Papert und Marvin Minsky 1969 identifizierten: darunter die Unmöglichkeit der damals zur Verfügung stehenden Netzkwerke, den recht einfachen logischen Operator XOR abzubilden. Infolgedessen wurden zunächst die meisten Forschungsgelder gestrichen. Wenn auch gebremst, ging die Forschung weiter. 1974 beschrieb Paul Werbos das heute wichtige Backpropagation oder Fehlerrückführungsverfahren. Seine Renaissance erlebten die KNN jedoch erst wieder ab 1985, als man entdeckte, dass mehrschichtige KNN, paralell via Backprogation trainiert werden konnten, und mit diesen das Problem der linearen Separierbarkeit gelöst und das XOR- Gatter simuliert konnte. Damit waren Papert und Minsky wiederlegt.

Als Data Scientist bin ich zwar ebenfalls diverse Male mit neuronalen Netzwerken in Berührung gekommen, aber einen umfassenden Überblick konnte ich mir noch nicht verschaffen. Das ist mein Ziel für die Teilnahme am Deep Learning Kurs von Udacity. Der Kurs ist mit 600 EUR zwar nicht billig, ich versprach und verspreche mir davon aber eine Aktualisierung und Erweiterung meines aktuellen Wissens zum Thema Deep Learning sowie eine vertiefte Anwendung in meinen Arbeitskontext. Ich habe mittlerweile den ersten Teil abgeschlossen. Neu waren für mich in dem Zusammenhang u.a. die beiden Python Bibliotheken Keras und Tensorflow, die den Bau von mehrlagigen neuronalen Netzwerken (=deep neural nets) ermöglichen. Ich habe bislang mit der MLLIB von Scala neuronale Netzwerke trainiert. Auch habe ich bisher keine Regression mit KNNs gemacht, das hat sich im Wege der ersten Projekts im Rahmen des Kurs geändert. Dafür mussten wir Daten eines Jahres analysieren und den Bedarf eines bestimmten Produktes an bestimmten Standorten in Abhängigkeit diverster Faktoren vorhersagen. Das hat mit wenigen Ausnahmen sehr gut geklappt. Ein weitere schöne Sache war die Sentiment-Analyes in Texten mit NLTK. Das ist auch ein sehr schönes Kit, um Texte zu minen. Im nächsten Teil, an dem ich bereits arbeite geht es um convoluted neuronale Netzwerke und hauptsächlich Bilderkennung. Ich bin schon sehr gespannt!

Schule ohne Fächer – in Finnland ab 2020

Statt traditioneller Fächer wie Physik, Mathematik, Geschichte oder Literatur wird es in Finnland ab 2020 nur noch den sogenannten Phänomen-basierten Lehr- und Lernansatz geben. Dazu werden nicht einzelne Aspekte – wie z.b. die Schnecke in der Biologie oder die Gravitation in der Physik betrachtet, sondern Phänomene aus der Welt ganzheitlich in ihrem realen Kontext betrachtet und analysiert. Solche Phänomene können der Mensch, die Europäische Union, Wasser oder Energie sein. Das Thema Energie beispielsweise könnte dann aus theoretischer physikalischer, praktisch technischer aber auch gesellschaftlicher Sicht betrachtet werden.

Link zum Text.

Ich finde, dass passt gut in unsere Zeit. Isolierte Informationen nützen weniger und können außerdem jederzeit bei Google nachgeschaut werden. Wichtiger ist es Inhalte im Kontext zu bewerten und so zu intelligenten Entscheidungen oder auf neue Ideen zu kommen.

Patreon – eine andere Art kreative Arbeit zu finanzieren und zu fördern

Patreon ist eine Plattform aus den USA, die es jedem ermöglicht Künstler, Autoren, Musiker, Podcaster, YouTuber usw. seiner Wahl mit einer kleinen oder größere regelmäßigen spende zu versorgen.

Dadurch ist es eine gute Möglichkeit sich für alle Arten von Künstlern sich ohne der Werbung zu unterwerfen zu finanzieren. Ich habe mir dort auch ein Profil für mein Projekt genughaben.de eingerichtet und habe seitdem dort auch keine automatische Werbung mehr. Sofern euch meine Seite gefällt und ihr mich unterstützen könnt, würde ich mich darüber freuen! Mein Profil findet ihr hier:

 

 

Seid ihr selbst Künstler, Autor, Musiker, Podcaster, YouTuber o.ä.? Dann meldet euch doch selbst auf Patreon an und schreibt euren Fans, dass sie euch darüber unterstützen könnt! Patreon bietet dazu viel und gute Unterstützung an, damit ihr damit auch Erfolg habt und ihr in Zukunft weniger von Werbung abhängig seid!

Viel Spaß und Erfolg mit eurem Projekt und danke für eure Unterstützung!

Frank

Was ich gerade lese – Kalenderwoche 19

  • Joel on Software. Joel Spolsky ist der Gründer von StackOverflow und aus dessen Inkubator – Fog Creek Software – ist unter anderem auch Trello hervorgegangen, dass ja sicher auch einige von euch benutzen. Falls nicht: schaut es euch einmal an. Cooles Tool zum Planen und Durchführen von Projekten. Jedenfalls schreibt Joel auch schon seit 1999 einen Blog mit genialen Posts über Software, Unternehmertum, Starups, was ihr nicht tun solltet u.v.m.. Das ganze Archiv findet ihr hier.
  • Glück. Von Matthieu Ricard. Ricard ist mit nach Abschluss seiner Promotion am Pasteur-Institut in Molekulargenetik unter dem Nobelpreisträge François Jacob buddhistischer Mönch geworden und ist dies nach mehr als 50 Jahren jetzt immer noch. Er gehört zu den ersten Mönchen, die sich zur Erforschung der Meditation in einen Kernspintomographen gelegt haben und legte damit mit das Fundament für die sich heute sehr dynamisch entwickelnde Meditationsforschung. In Glück untersucht Ricard das Phänomen Glück aus psychologischer, sozialer, kultureller und spiritueller Sicht. Ich bin jetzt 10% durch und bisher finde ich es großartig. Wenn das Thema interessiert, der schaue sich auch unbedingt das Interview mit ihm auf Sternstunde Philosophie an. Großartig! Ricard gehört auch zu denen, die mich dazu inspiriert haben jeden Tag zu meditieren – was für mich ein großer Gewinn ist. Ich selbst möchte damit weitermachen und selbst ein glücklicherer Menschen werden, auch, um mit anderen bessere Beziehungen führen zu können.