Insolventstatistikgesetz die zweite

Spannend geht es weiter. Die für das InsStatG ermittelten Daten müssen ja in irgend einer Form zum statistischen Bundesamt kommen. Wie ich bereits in meinem letzten Artikel ausgeführt hatte, gibt es sowohl die Möglichkeit, die Erfassungsbögen in Papierform auszufüllen und einzureichen, als auch die Daten digital einzuspielen.
Die Erstellung der Papierform ist eine Fleißarbeit, nachdem wir in unserer Software ja schon seit Monaten die Erfassungsmasken für die Kenndaten haben, und unsere Kunden auch schon recht fleißig am Erfassen sind, wird bei uns Stück für Stück die Generierung der Erhebungsbögen in die Software implementiert. Immer dann, wenn wir landesspezifische Bögen von den statistischen Landesämtern erhalten, dauert es im Schnitt nicht mal einen Tag, bis diese Landesbögen bei uns zur Verfügung stehen. Dort, wo keine Landesbögen verfügbar gemacht wurden, verwenden wir die „generischen“ Bundesbögen.
Eine kleine Herausforderung bietet jedoch die digitale Datenübermittlung (ohne Ausdruck der Papierbögen) direkt an das statistische Bundesamt. Destatis hat für solche Datenübermittlungen eine wirklich gut durchdachte Schnittstelle aufgebaut (mein Kompliment). Die Schnittstelle wird verwendet, um das Online-Meldeverfahren eSTATISTIK.core zu verwenden. Wie das jedoch bei allen gut durchdachten Sachen ist, man muss sich wirklich intensiv einlesen, um das Konzept zu verstehen. Wie immer ist es wichtig, nicht wie wild alles durchzulesen in der Hoffnung, dass man das dann schon versteht, sondern man sollte sich nur mit den Details beschäftigen, die für die aktuelle Datenübermittlung essentiell sind. Tatsächlich geht die Datenkonvertierung, Aufbereitung und Übermittlung dann auch sehr einfach. Wir machen es uns dabei einfach, wir benutzen die direkt von Destatis zur Verfügung gestellten JAVA-Schnittstellen, denn da ist alles bereits fertig und man muss nur noch die Details festlegen und (neben ein paar Kleinigkeiten) die passenden Dateien zusammenkopieren. Hier haben wir einen riesigen Vorteil, denn da unsere Software INVEP serverbasiert ist, können wir alles zusammen, d.h. Java an sich sowie die Destatis-Module in ein separates Management-Verzeichnis einkopieren. Das hat für uns den riesigen Vorteil, dass wir uns nicht mit den Java-Installationen auf den PCs der Anwender rumschlagen müssen. Es ist alles schön zentralisiert, wird an dieser Stelle auch verwaltet und es besteht nicht die Gefahr, dass ein verbastelter PC Probleme verursacht. Potentiell hart wird es natürlich für all die Softwareersteller werden, die die PC-abhängige Java-Implementierung verwenden möchten, denn dort muss jeder PC einzeln angefasst werden, und bei jedem PC kann etwas schief gehen.
Die von Destatis zur Verfügung gestellte JAVA-Schnittstelle ist auch insofern erste Wahl, als sie wirklich vollständig ist, man braucht wirklich nichts mehr selbst machen, also kann auch nichts schief gehen. Diese JAVA-Schnittstelle ist daher wohl auch das bevorzugte Übermittlungswerkzeug von Destatis. Es gibt zwar auch eine .NET-Schnittstelle, die ist jedoch deutlich rudimentärer, man muss sehr viel selbst machen (kann also eine Menge falsch machen) und sie scheint mir ein etwas ungeliebtes Kind zu sein.

Wie dem auch sei, es geht voran und wir sind guter Dinge.

Mit fällt da noch was ein: Ich bin wirklich gespannt, wie viele Gerichte die Generierung oder Übermittlung der VA- und RA-Bögen (also die, die vom Gericht zu erstellen sind) an den jeweiligen Verwalter delegieren; schlicht mit der Begründung, das sie die Bögen nicht erstellen oder übermitteln können. Glücklicherweise haben wir diese Bögen bei uns ja genauso implementiert wie alle „Verwalter-Bögen“.

Veröffentlicht unter Allgemein | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Insolvenzstatistikgesetz

Seit dem die ersten Entwürfe des InsStatG diskutiert wurden, haben wir uns mit dieser Thematik intensiv beschäftigt. Im Dezember 2011 wurde das Insolvenzstatistikgesetz veröffentlicht und verkündet und tritt am 1.1.2013 in Kraft. Über die Intention dieses Gesetzes denke ich gar nicht nach, annähernd täglichen Aufwand erfordert jedoch die Detailabstimmung sowie die Information der Beteiligten. Da gibt es also ein neues Gesetz, das selbstverständlich in allen Bundesländern Anwendung findet. Nicht nur dass das eine oder andere Gericht der Ansicht ist „Wir nehmen nicht dran teil“ (ist tatsächlich vorgekommen,frei nach dem Motto “ wenn’s wichtig wäre hätte ich was davon gehört, da ich nichts davon gehört habe, kann’s nicht wichtig sein, also spiele ich auch nicht mit“), sondern es gibt auch einen unglaublichen Abstimmungsaufwand mit den Behörden.
Tatsächlich müssen im Rahmen des Gesetzes 5 verschiedene Meldungen auf den entsprechenden Meldebögen erfolgen. Es ist schon interessant festzustellen, wie diametral die Meinungen auseinandergehen, wer was zu liefern hat. Es werden tatsächlich sämtliche denkbaren Permutationen vertreten. Daher hier nochmal die offizielle Sicht des Statistischen Bundesamtes: „Die Bögen VA ud RA werden vom Gericht erstellt, alle anderen Bögen muss der Insolvenzverwalter liefern“. Die nächste magische Frage lautet, wo die Informationen in welchem Format hingesendet werden. Wir haben also alle 14 statistischen Landesämter angeschrieben und darum gebeten uns mitzuteilen, wie denn die Informationen bereitgestellt werden sollen. Stück für Stück bekommen wir die Antworten. Überwiegend ist es unerwünscht, dass die statistischen Meldungen in Papierform erfolgen. Die meisten Landesämter wünschen die digitale Dateneinlieferung direkt beim statistischen Bundesamt.
Ich bin gespannt, wie es weitergeht. Sicher bin ich jedoch, dass das Gesetz nicht nochmals verschoben wird, denn die Datenerhebung dient in erster Linie politischen Zwecken, und da im nächsten Jahr Bundestagswahlen sind, wird die Regierung wohl nicht darauf verzichten wollen, die statistischen Erhebungen für ihre Zwecke einzusetzen.

Nähere Detailinformationen gibt’s übrigens auf unserer Internetseite:
www.invep.de/insstatg.html

Adressen und Informationen zu den statistischen Landesbehörden, die uns eine Antwort gesendet haben, gibt es hier:
www.invep.de/insstatg_bundeslaender.html

Aus gegebenem Anlass haben wir für alle, die im Rahmen des Gesetzes verpflichtet sind, Daten zu liefern, eine eigene Seite aufgebaut. Diese Seite kann auch von Verwaltern genutzt werden, die nicht in der glücklichen Lage sind, unsere Software einzusetzen:
www.statdesk-online.de

 04.02.2013 Nachtrag
Die gesamte Datenübermittlung zu Destatis erfolgt in der Regel mit Java-Programmen. Es dürfte mittlerweile allgemein bekannt sein, dass eine Java-Installation auf einem PC ein extrem großes Sicherheitsrisiko darstellt. Bei der Verwendung von INVEP ist dieses Risiko technologisch bedingt nicht vorhanden. Andere Softwaresysteme reißen hier ggf. große Lücken in die Sicherheitsarchitektur einer Kanzlei. Näheres dazu finden Sie auf der INVEP-Seite sowie demnächst in einem weiteren Blog-Eintrag.

Veröffentlicht unter Allgemein | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Was kann man überhaupt rechnen

Ich war vorgestern, also am 14.08.2012 in Frankfurt bei der Vorstellung der Wolfram-Financial-Platform. Hier nochmal einen Dank an die Additive-GmbH für die Veranstaltung. Für alle Leute, die sich mit Finanzen, Börsenanalysen, Risikobewertung usw. beschäftigen, sicherlich eine hoch interessante Möglichkeit der Datensammlung und Auswertung. Unter vielen anderen Punkten wurde dabei die Möglichkeit aufgezeigt, mittels Grafikkarte, d.h. z.B. CUDA entsprechende Berechnungen stark zu parallelisieren. Das ist sicherlich extrem interessant, da man mit vergleichsweise „schmalem Taler“ in gewissem Maße Super-Computer-Computing bekommt. Nun habe ich mich mit dieser Technologie schon geraume Zeit beschäftigt, also nichts wirklich neues gehört. Aber ich habe eine Frage in den Raum geworfen, die sicherlich nicht so ohne weiteres abgetan werden kann. Die Recheneinheiten von aktuellen PCs sowie die doppelt-genauen Recheneinheiten von neueren CUDA-Grafikkarten haben eine maximale Mantissenbreite von 15-16 Stellen (klingt komisch, aber so isses, 15 und eine halbe Stelle).
Das wirft ein interessantes Problem auf: Wie weit kommt man damit denn, wenn man Euro rechnet? Rein theoretisch kann man mit einer fünzehnstelligen Zahl neun Billionen Euro bis auf den Cent genau darstellen. Nur darf man dann nicht mehr damit rechnen, denn dann verliert man bei den allermeisten Rechenoperationen einige Ziffern auf Grund von Rundungsfehlern. Das heißt, der Computer kann die Zahlen zwar verwalten, aber er ist nicht mehr in der Lage damit rechnen, ohne dass falsche Ergebnisse dabei rauskommen.
Also ok, arbeiten wir also eine Nummer kleiner. Wenn wir nur bis 999 Milliarden gehen, dann gewinnen wir eine Ziffer, die für die Rundungsfehler herhalten kann, also einen zehntel Cent. Wirklich weit kommen wir damit jedoch auch nicht, denn wenn man das mal ausprobiert, dann merkt man sehr schnell, dass sich diese Rundungs-Reserveziffer sehr schnell aufbraucht und die Ergebnisse werden wieder ungenau. Um wenigsten halbwegs genau über einige Schritte hinweg rechnen zu können, braucht man zwei, besser drei Ziffern. Bei größeren Berechnungen wird es dann zwar noch immer fehlerhaft, aber wenigstens kleine Berechnungen kann man damit durchführen. Und hier wird es spannend. Wenn man nämlich drei Ziffern Reserve für die Eliminierung von Rundungsfehlern vorhält, dann kann man mit einem PC nur Beträge bis zu 10 Milliarden minus 1 Cent rechnen (also 9.999.999.999,99 €).
Welch grober Unsinn heraus kommt, wenn man den Rechenbereich eines PCs verläßt, kann man in meinem Blogeintrag zu Excel-Rechenfehlern nachlesen.
Welchen Schluss kann man daraus ziehen? Etwas zynisch und sicherlich nicht ganz zutreffend könnte man z.B. sagen, dass eine Staatenpleite in Europa schlicht deswegen undenkbar ist, weil sie von keinem Politiker mit Excel nachgerechnet werden kann.
Zugegebenermaßen ist das zwar kein Problem des „normalen Alltags“, aber es ist eben nicht nur akademischer Natur. Wenn man solch große Zahlen rechnen möchte, dann braucht man eben Profi-Werkzeuge, die nicht auf die Rechengenauigkeit eines PCs angewiesen sind, sondern genauer Rechnen können. Mit Wolfram-Mathematica geht das ohne weiteres, man darf halt nur nicht die CUDA.Technik dabei benutzen. Mit INVEP geht das übrigens auch, denn INVEP hat für derartig große Zahlen eigene spezielle Rechenbibliotheken.

Veröffentlicht unter Allgemein, Buchhaltung, Datenanalyse | Verschlagwortet mit , , , | Hinterlasse einen Kommentar

Datenbanken und Listen

Eine SQL-Datenbank ist einfach zu verwalten und Abfragen liefern tabellarische Ergebnisse. In der Regel werden Ergebnisse von SQL-Abfragen direkt weiter verarbeitet, d.h. die Ergebnisse durchlaufen keine weiteren Manipulationen, da die Manipulationen auf SQL-Ebene selbst erfolgen. Das bedeutet, dass das Ergebnis einer SQL-Abfrage klar definiert ist. Die magische Frage lautet jedoch, was ist, wenn das Ergebnis nicht klar definiert ist, so dass keine Einzelelemente verarbeitet werden können oder wenn man ein Gesamtergebnis erhalten möchte, dass danach erst weiter verarbeitet werden soll?

Meine Idee dazu ist die Darstellung von Ergebnissen in Form von Listen. Für Listen kann man eine Vielzahl von Operationen definieren, um sie zu verwalten und man kann Listen ineinander verschachteln, um z.B. Ergebniskaskaden zu verwalten. Wir müssen also nur eine Syntax definieren, in der die Listen notiert werden. Dann benötigen wir noch ein paar Manipulationsfunktionen und schon können wir die Ergebnisse von SQL-Abfragen generisch in den Arbeitsspeicher transferieren, um sie dort mit „intelligenten“ Funktionen dynamisch aufzubereiten.

Das Ganze klingt zu verworren? Dann noch mal anders dargestellt:

  • Bei der Verarbeitung einer SQL-Abfrage müssen wir vorher wissen, wie das Ergebnis aussehen könnte, um eine Verarbeitung überhaupt durchführen zu können
  • Bei der Überführung des Ergebnisses einer SQL-Abfrage in eine Liste können wir die Ergebnisliste danach analysieren und dann dynamisch entscheiden, wie wir mit den einzelnen Elementen umgehen.

Wozu braucht man das eigentlich, denn man sollte doch immer wissen, was man eigentlich will? So einfach ist es leider nicht. Häufig kennt man nicht die tatsächliche Ausgangssituation der Daten und damit ist das Ergebnis einer SQL-Abfrage auch nicht deterministisch (oder besser „vorhersagbar“) und es ergibt sich auch die Situation, dass man mit dem Ergebnis einer Abfrage etwas „herumspielen“ möchte, ohne jedes mal eine neue Abfrage zu generieren. So kommen wir zum Konzept der Listen.

Eine entsprechende Darstellung ist sehr einfach. Das Gesamtergebnis einer Datenbankabfrage ist eine Liste. Die einzelnen Datenzeilen der Abfrage sind selbst wiederum Listen, die in der Gesamtliste enthalten sind. Da eine Liste nun sowohl Elemente als auch Listen enthalten kann, ist eine beliebige Verschachtelung möglich. Man benötigt dann nur noch funktionen, mit denen Elemente bzw. ihre Existenz abgefragt werden können. Das Schöne dabei ist, dass das Rad damit nicht neu erfunden wird. Für die Analyse und Verarbeitung von Listen gibt es eine Vielzahl von Programmen. Wenn man z.B. Wolfram Mathematica verwendet, so kann man entsprechende Listen dort direkt weiter verarbeiten und analysieren.

ich werde in einem weiteren Artikel darauf eingehen, wie wir solche Listen und ihre Verwaltung in INVEP eingebaut haben und wie ein Anwender auf sie zugreifen kann, ohne detaillierte Programmierkenntnisse zu besitzen.

Veröffentlicht unter Allgemein, Datenanalyse, Programmerweiterungen | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Datenvisualisierung in einer neuen Dimension

Ich hatte es ja schon in der Vergangenheit geschrieben, dass wir erweiterte Analysen mit Wolfram-Mathematica erstellen. INVEP ist und bleibt INVEP, aber man muss das Rad ja nicht mehrmals erfinden. Einige Auswertungen, insbesondere Visualisierungen lassen sich mit Mathematica einfach leichter realisieren. Nun ist es leider so, dass nur die allerwenigsten unserer Kunden eine Mathematica-Lizenz haben. Um hier denoch entsprechende Analysen zur Verfügung zu stellen, haben wir auf einem unserer Web-Server ein Web-Mathematica installiert, dass wir jetzt Stück für Stück mit neuen Analysen beschicken. Die Analysen können direkt aus INVEP heraus abgerufen werden. Das Kunden-INVEP sendet die Daten zum Webserver, läßt dort die Analyse laufen, holt die Ergebnisse ab und zeit sie an. Natürlich kann man den Webserver auch manuell ansurfen und Daten zur Analyse hochladen. Wenn keine oder keine sinnvollen Daten hochgeladen werden, so verwenden wir Beispieldaten aus unserem eigenen Datenpool. Solche Beispieldaten können wir schließlich jederzeit einfach erzeugen, da wir als Softwareersteller ja selbst intensiv mit unseren eigenen Produkte arbeiten.

Ich finde das ganze überaus spannend, denn es ergeben sich so vollkommen neue Möglichkeiten. Wer es selbst einmal ausprobieren möchte, kann folgenden Link anwählen. Aktuell haben wir als Beispielauswertung den Arbeitsaufwand in Kanzleien implementiert. Der entsprechende Link kann hier auch direkt angewählt werden. Zum Testen müssen dafür keine Daten hochgeladen werden. Wenn bei leerem Dateinamensfeld der submit-Button angewählt wird, dann werden automatisch Beispieldaten verwendet.

Das Ganze ist natürlich nur der Anfang, es wird noch spannend werden. Wenn man übrigens eine eigene Mathematica-Lizenz hat, dann können diese Auswertungen noch sehr viel Umfangreicher gestaltet und durchgeführt werden.

 

Veröffentlicht unter Allgemein, Datenanalyse | Verschlagwortet mit | 1 Kommentar

Details sind keine Details

Es gab einen sehr bekannten Möbeldesigner. Charles Eames entwarf absolute Klassiker, die seit teilweise fast 50 Jahren quasi unverändert gebaut werden. Wer sich jemals mit Design beschäftigt hat, kommt wohl an Eames nicht vorbeit. Nicht nur dass er sehr zeitlose und extrem langlebige Möbel entworfen hat, er hat auch die Perfektionierung seiner Entwürfe auf die Spitze getrieben. Nicht umsonst findet man seine Aluminiumserie auch heute noch sehr häufig überall dort, wo auf hochwertige Produkte Wert gelegt wird. Ich finde es schon recht bemerkenswert, dass „Alltagsprodukte“ quasi unverändert seit 50 Jahren gefertigt werden und niemals an Attraktivität eingebüßt haben. Insbesondere im Möbelbau gibt es Designklassiker, die einfach nur Klassiker sind, seit Ewigkeiten gebaut werden, sozusagen in die Kategorie des „Must have“ gehören, jedoch niemals wirklich bequem waren. Die Eames-Möbel gehören nicht dazu. Sie wurden nicht entworfen, um als Solitäre heraumzustehen, sondern um benutzt zu werden. Die Intention ihres Entwurfes war also die möglichst perfekte Funktionserfüllung; möglichst gepaart mit einem Maximum an Ästhetik. Eames war im positiven Sinne ein Besessener. Von ihm stammt der Spruch „Die Details sind nicht einfach nur Details, die Details sind das Produkt„. Dem möchte ich mich mit diesem Blogeintrag anschließen. Eine derartige Sicht der Dinge kann man auch auf Software anwenden. Man kann ohne weiteres Software schreiben, die einfach nur ihren Zweck erfüllt. Solche Software ist tatsächlich beliebig austauschbar. Ein essentieller Unterschied bei der Gestaltung einer Software sind eben die Details. Bei wirklich guter Software wird immer wieder aufs neue geprüft, ob etwas verbessert werden kann. Das bedeutet nicht, dass neue Funktionen eingebaut werden, sondern, dass vorhandene Funktionen verbessert werden. Komplexität und fehlende Ergonomie kann nicht einfach wegdiskutiert werden; eine Software muss so angepasst werden, dass sie den Arbeitsalltag tatsächlich vereinfacht und nicht einfach nur „Dinge“ vom Schreibtisch in den Computer verlagert. Die Vielzahl von Details und kleinen „Helferlein“, die nur per Software realisiert werden können und die die tägliche Arbeit vereinfachen oder beschleunigen – bestenfalls beides – machen das Produkt aus; sie sind das Produkt. Warum schreibe ich das hier? Wir bekommen immer wieder das Feedback, dass wir eine imense Vielzahl an Details in unsere Produkte einbauen, deren Sinn und Zweck zwar nicht immer sofort erkennbar ist (meistens schon), die jedoch die tagtägliche Nutzung erheblich vereinfachen. Die immer neue Herausforderung für uns besteht darin, nicht nur die Details bereit zu stellen, sondern es auch in einer Art und Weise zu tun, dass das gesamt System trotz allem aufgeräumt, übersichtlich und ergonomisch bleibt.

 

Veröffentlicht unter Allgemein, Programmerweiterungen | Verschlagwortet mit | Hinterlasse einen Kommentar

Der Unterschied zwischen Einzel- und Massenoperationen

Da hat hat man eine Funktion gebaut, die sich als überaus nützlich erweist und die von den Anwendern dankbar aufgenommen wird, und dann kommt die Frage „Kann ich nicht mehrere Dateien auswählen und die Operation auf alle Dateien anwenden?“. Das klingt erst einmal nach einer einfach umzusetzenden Aufgabe, der Teufel steckt jedoch wie immer ganz erheblich im Detail.

Wenn ich eine einzelne Funktion zur Verfügung stelle, dann kann ich die gesamte Handhabung dieser Funktion gekapselt betrachten. Der zugehörige Programmcode wird entsprechend geschrieben:
1) Ist die Anwendung der Operation zulässig
2) Erfassung der Parameter für die Anwendung der Operation
3) Durchführen der Operation
4) Erfolg oder Misserfolgt melden

Wenn man das ganze jedoch als Massenoperation durchführen möchte, dann sieht’s ganz anders aus. Der Anwender erwartet natürlich, dass er sämtliche Eingaben nur einmal vornehmen muss und das Fehlermanagement muss genauso einfach sein, wie bei einer einfachen (einzelnen) Anwendung. So einfach ist es jedoch nicht. Wenn umfangreiche Operationen auf eine Vielzahl von Daten angewendet werden sollen, dann sind mehrere dinge zu berücksichtigen, die bei einem einzelnen Datensatz schlicht keine Relevanz haben:
1) Wie ist damit umzugehebn, wenn zwar die gleiche Operation auf die Daten angewendet werden soll, jedoch jeweils unterschiedliche Rahmenbedingungen unterschiedliche Dateneingaben erfordern? Sollen alle Daten am Anfang erfasst werden, oder jeweils nur dann abgefragt werden, wenn sich Details unterscheiden?
2) Was ist mit einem Abbruchkriterium? Wenn eine umfangreiche Operation abgebrochen wird, liegen die Daten ggf. in einem Zustand vor – der halbfertig – nur mit erheblichem manuellem Aufwand nachgepflegt werden kann.
3) Ist ein Abbruchkriterium für eine Massenoperation überhaupt zulässig, oder entstehen dann unauflösbare konflikte?
4) Was ist, wenn ein Abbruch unzulässig ist, der Anwender jedoch auf Grund des langen Abarbeitungsvorganges denoch abbrechen möchte?
5) Wann sollen Fehlermeldungen ausgegeben werden (mittendrin, oder zusammengefaßt am Ende)

In diesem kleinen Szenario zeigt sich bereits, dass der Zusatzaufwand bei Massenoperationen teilweise überaus erheblich sein kann. Eine einfache Operation, die auf einen einzelnen Datensatz angewendet, vollkommen einfach zu implementieren ist, kann sich als quasi unmöglich für eine Massenoperation zu implementieren zeigen. In jedem Falle muss man sich intensive Gedanken über die Datenverwaltung machen, wenn eine einfache Funktion mehrfach angewendet werden soll.

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Transparenz als Grundlage der Glaubwürdigkeit

Von Sergej P. Koroljow gibt es die bekannte Aussage „Kompliziert bauen kann jeder“. Genau genommen hatte er gesagt „Die Genialität einer Konstruktion liegt in ihrer Einfachheit. Kompliziert bauen kann jeder.“ Koroljow war sozusagen der Vater der russischen Raumfahrt. Tatsächlich gilt diese Aussage noch heute, denn es ist zumeist kein Problem, einen komplizierten Sachverhalt auch kompliziert wiederzugeben. Die Schwierigkeit liegt darin, einen komplizierten Sachverhalt so aufzubereiten, dass er auch von normal Sterblichen verstanden werden kann. In der Programmierung bedeutet das, dass die erste Version eines Programmes zumeist ein Erscheinungsbild und eine Funktionalität hat, die wirklich nur von den Leuten verstanden wird, die’s programmiert haben. Die eigentliche Arbeit beginnt jedoch erst dann. Denn dieses komplexe Software-Gebilde muss in eine Form gebracht werden, dass ein Anwender auch eine Chance hat, es zu verstehen, ohne zuvor eine Schulung im Umfang einer Doktorarbeit zu durchlaufen.

Ich sehe dass hier als wirklich stete Herausforderung an, denn überaus häufig müssen wir unser System immer aufs neue anwenderfreundlich  gestalten, damit es überhaupt bedienbar bleibt. Auf den ersten Blick sieht dass dann so aus, als ob der Leistungsumfang beschnitten wurde (oder von Anfang an gar nicht vorhanden war), tatsächlich ist jedoch sehr viel Arbeit hinein geflossen, die komplexen Vorgänge vor dem Anwender zu verbergen (oder sie erst in Form weiterer optionaler Möglicheiten freizugeben).

Der nächste Schritt wird die grafische Aufbereitung von Daten sein. Damit meine ich nicht irgendwelche einfachen Linien-, Torten- oder Balkendiagramme, sondern aussagekräftige Diagrammdarstellungen oder dreidimensionale Visualisierungen von Vorgängen. Ich denke, dass es für jeden Anwender hilfreich ist, wenn er sich den aktuellen Bearbeitungsstand grafisch anzeigen lassen kann, statt einfach auf Tabellen zu vertrauen.

Wir haben schon mehrere Ideen für entsprechende Auswertungen, freuen uns jedoch über jede Mail oder jeden Anruf frei nach dem Motto: „Was ich schon immer mal sehen oder wissen wollte“. Wie in unserer Firma üblich werden derartige Ideen natürlich zumeist kostenlos umgesetzt.

Veröffentlicht unter Datenanalyse | Verschlagwortet mit , | Hinterlasse einen Kommentar

Tips und Tricks in INVEP

Stetig erweitern wir unser Produkt um neue Funktionen, die dann zumeist nur den Anwendern bekannt sind, die sich genau diese Funktion gewünscht haben. Es ist jedoch schade, dass die Vielzahl an Hilfsfunktionen vor anderen Augen verborgen bleibt, schlicht weil niemand nachfragt (oder das aktuelle Handbuch liest). Wir haben daher auf der INVEP-Seite  einen neuen Bereich mit Tips & Tricks eingerichtet, in dem wir jeweils aktuelle Dinge herausstellen. Ein Besuch lohnt sich also immer mal wieder.

Wenn Sie eine Idee haben, so nehmen wir diese Idee in Zukunfts gerne auf. Senden Sie uns einfach eine Mail an support@akso.de oder schreiben Sie inen Kommentar hier im Blog.

Veröffentlicht unter Allgemein | Verschlagwortet mit , | Hinterlasse einen Kommentar

Computer haben eine endliche Genauigkeit

In einer digitalen Welt, in der es heutzutage extrem einfach ist, selbst umfangreiches Zahlenmaterial zu verarbeiten passiert es schnell, dass man blind vertraut, wo man doch eigentlich Vorsicht walten lassen sollte.

Die Grundrechenarten erlernt man bereits in der Grundschule, und je nach Jahrgang sind dann verschiedene Hilfsmittel zur Berechnung hinzugekommen. Ich möchte jetzt nicht ausschweifend darauf eingehen, wie es war, mit Logarithmentafeln und Rechenschiebern zu rechnen. Es reicht aus, dass wir irgendwann angefangen haben, Taschenrechner zu verwenden. Ein Taschenrechner oder auch ein Tischrechner ist eine tolle Sache, man kann beliebige Kettenrechnungen durchführen und bekommt ein korrektes Ergebnis. Es gibt eine kleine aber magische Einschränkung: Man bekommt ein korrektes Ergebnis, sofern man die Rechengenauigkeit der Maschine nicht überfordert. Tatsächlich sind moderne wissenschaftliche Taschenrechner sogar extrem genau, da eine Vielzahl an Knowhow in die Eliminierung von Rundungsfehlern eingeflossen ist.

Als moderner, computeraffiner Mensch nutzt man keinen Taschenrechner mehr, sondern das ultimative Schweizer Messer mit dem Namen Excel. Excel ist ein gutes Werkzeug, jedoch gibt es ein sehr großes ABER. Man muss in Excel extrem aufpassen, dass die durchgeführten Berechnungen nicht zu umfangreich werden, denn je nach Größe der Zahlen entstehen in Excel früher oder später extreme Rundungsfehler. Im Finanzmathematischen machen sich die Fehler sehr schnell nicht nur im Cent-Bereich bemerkbar.

Ich habe etwas mit Excel rumgespielt und eine leicht nachvollziehbare Tabelle erstellt, die im Ergebnis absuluten Unsinn liefert. Zum einfachen Nachvollziehen kann die Tabelle hier geladen werden. Ich habe die Tabelle auch noch als PDF-Datei ausgedruckt, das Dokument kann hier geladen werden. Was sagt uns die Tabelle anbetracht der Tatsache, dass Excel sich doch im täglichen Einsatz bewährt und vermeindlich richtig rechnet?

Tatsächlich ist es ganz einfach: Bedingt durch seine logische Struktur akkumuliert Excel Rundungsfehler. Diese Rundungsfehler machen sich bei Einzelberechnungen kaum bemerkbar, wirken sich jedoch bei aufwändgen Kalkulationen mit steter Weiterverwendung vorheriger Ergebnissse früher oder später stark aus.

Heißt das jetzt, dass man Excel nicht verwenden soll? Sicherlich nicht. Mann muss sich eben nur sehr bewust sein, welche Art von Berechnungen man mit Excel durchführt. Für aufwändige Kalkulationen mit vielen Folgeberechnungen ist es schlicht nicht geeignet.

Grundsätzlich ist das übrigens keine Schlamperei von Microsoft, sondern ein immanentes Problem der zugrundeliegenden Mikroprozessorarchitektur. Wenn man wirklich richtig rechnen will, dann gibt es dafür entsprechende Werkzeuge, aber eben nicht Excel.

Übrigens gehören Vergütungsberechnungen sowie Berechnungen von Quotenzahlungen genau in die Kategorie der Berechnungen, die aus obigen Gründen mit Excel nicht möglich sind. Wenn man sich die Mühe macht und die dergestalt erzeugten Ergebnisse mit den entsprechenden Werkzeugen (z.B. Mathematica) nachrechnet, dann merkt man schnell, dass die Ergebnisse falsch sind.

Wer noch eine andere Datei ansehen möchte, der kann hier eine weitere Excel-Datei zum spielen laden, mit der die Fehlerausbreitung aufgezeigt wird.

 

Veröffentlicht unter Buchhaltung, Datenanalyse | Verschlagwortet mit , | 3 Kommentare