Eigentlich sollte es in dieser lockeren Serie immer nur um maximal drei Artikel pro Veröffentlichung gehen aber gerade ist mir noch ein vierter hereingeschneit, der wie die anderen drei aus der Masse herausragt.
Ich interessiere mich immer für Neuigkeiten - das schließt solche aus der Forschung ein. Durch die wunderbare Idee des Preprint-Servers und der Veröffentlichung ebenda hat man die Möglichkeit, mit wenig Aufwand am Puls der Zeit zu bleiben. Man kann natürlich nicht alle auf Arxiv veröffentlichten Paper lesen, allerdings sind die Artikel dort in Kategorien aufgeteilt, was das Finden von Veröffentlichungen passend zu den eigenen Interessen erleichtert.
Statt dessen wird irgendetwas herbeigeschwurbelt von "Incentives" natürlich auf der Blockchain (speziell Ethereum), die dazu führen sollen, dass die besten Reviews sich durchsetzen und viel mehr Leute Reviews schreiben. Abgesehen von dem Problem, dass damit die Arbeit explodiert - es müssen jetzt nicht mehr nur die eigentlichen Arbeiten durch einen Review-Prozess, sondern auch die Reviews - wird die Absurdität noch dadurch gesteigert, dass die Autoren die Existenz massiver Probleme in solchen Bewertungssystemen schlicht ignorieren - es gab in den letzten Jahren genug Skandale, die sich unter Review-Bombing zusammenfassen lassen - daraus resultierten wieder und wieder Einschränkungen dessen, wem erlaubt war, Reviews abzugeben.
Es gibt genug Probleme im akademischen Betrieb, was die fundierte Analyse und Bewertung der Qualität wissenschaftlicher Arbeiten angeht - diese Arbeit löst sie nicht nur nicht sondern hält sich von diesen eigentlichen fassbaren und quantifizierbaren Problemen so weit entfernt wie es nur irgend geht - die Autoren vergessen jedoch nicht, dass es einen Unterhaltungsaspekt gibt und streuen schon im Abstrakt so viel Bullshit ("Community", "Gamification", "ethical", "inclusiveness"), dass das nächste "Bingo" sicher ereicht werden kann.
Wer sich trotzdem einen persönlichen Eindruck verschaffen möchte: bittesehr!
In seinem Ausblick zerlegt sich der Autor dann selbst mit so wunderbaren Äußerungen wie "A lot of inputs and features had to be taken into account when determining which architectural pattern will be chosen, an impossible task when non-automated." Was er hier sagt ist, dass er ein Problem löst, das auf andere Art und Weise nicht lösbar ist - nur mittels Automatisierung. Eine steile These!
Zumindest an einer Stelle beweist er zumindest den Ansatz von Verbindung zur Realität - nämlich wenn er erklärt, dass die größte Herausforderung sein wird, die Eingaben und Architektur-Pattern in numerische Werte zu übersetzen, auf denen der angedachte automatische Entscheidungsprozess dann arbeiten kann. Dazu möchte er dann Software-Architekten und Experten um Hilfe bitten. Das widerspricht sich jedoch mit der eingangs gemachten Aussage - nämlich dass das Problem als solches unlösbar ist. Trifft das zu, kann es keine Experten geben, die er befragen könnte.
Alles in allem hat diese Arbeit nur eine messbare Auswirkung - sie hat die Entropie des Universums erhöht und damit seinen Hitzetod beschleunigt!
Wer sich einen Einblick verschaffen möchte, wie man dabei vorgeht - bittesehr!
Aber das ist ein alter Hut - wenn man mit der eigenen Veröffentlichung sichtbar werden will, muss man wenigstens den Eindruck erwecken, etwas neues beizutragen. Die Autoren erklären nun, dass es durchaus legitimes Interesse an den Daten in der privaten Blockchain geben kann und versprechen, ein sicheres Verfahren vorzustellen, mit dem man solchen externen Parteien Zugriff auf definierte Inhalte in der Chain geben kann.
Nach dem in solchen Papers heutzutage leider üblichen Geschwurbel kommen die Autoren auf Seite 4 langsam zur Sache: Die (potentiellen) Empfänger müssen ihren Public Key bei den Eigentümern der privaten Blockchain registrieren! Hmm - das kommt uns bekannt vor? Richtig - die Quintessenz des Papers ist : "Möchtest Du die Vertraulichkeit und Integrität von übertragenen Daten sicherstellen, nutze asymmetrische Crypto!" Wow - eine Erkenntnis, die nicht wirklich neu ist - allerdings schaffen es die Autoren, insgesamt 9 Seiten Blockchain-Brimborium darum herum zu konstruieren!
Wer sich anschauen möchte wie man so etwas angeht - bittesehr!
Hmm - für mich klingt das erst einmal nach "Lass uns rausfinden, welcher Staat die geringste Regulierung hat und wo die Stromkosten am niedrigsten sind damit wir unsere Mining-Racks aufstellen können!"
Welches Unternehmen - und sei es eine der typischen Startup-Klitschen - sucht sich bitte den Unternehmensstandort danach aus, wo man am besten Bitcoins schürfen kann? Dieses Problem (das das Paper verspricht, zu lösen) dürfte meiner Ansicht nach ein extremes Randgruppenproblem sein.
Aber sehen wir uns an, wie es gelöst wird: Bereits im Abstract wird behauptet, man könne einen numerischen Wert berechnen, der die Eignung eines Staats für die Gründung eines Blockchain-basierten Business ermittelt, dort wird aber auch gleich eingeräumt, dass es unmöglich ist, alle Eingangsparameter zu quantifizieren oder auch nur zu ermitteln!
Ich gehe hier nicht auf die Zweifelhaftigkeit von Indices im Allgemeinen ein - die Tatsache, dass Wirecard im DAX vertreten war, reicht meiner Ansicht nach aus, diese Konstrukte zumindest in Frage zu stellen.
In Abschnitt 4 "Robust Indexing" geht es mit dem ersten Unterabschnitt weiter, der da heißt "Estimation of Missing Indicators". Wie im Abstract angedeutet: Wir berechnen einen Index ohne Daten! Schon in der ersten Fomel geht es los: Ein beliebiger unbekannter Parameter des Index wird berechnet aus dem Mittelwert dieses Parameters als gleichwertig eingestufter anderer Staaten. In diesem Vorgehen liegt absolut keine Information: Die Autoren spannen für ihre Arbeit einen 15-dimensionalen Merkmalsvektorraum auf. Sie rechnen aus diesen 15-dimensionalen Vektoren eine einzelne Zahl und postulieren daraus eine "Ähnlichkeit" zweier Datenpunkte anhand einer daraus ausgerchneten Distanz. Jedem, der sich bereits mit der topologischen Analyse hochdimensionaler Eingangsdaten zum Beispiel bei der selbstorganisierenden Clusterung beschäftigt hat weiß, dass aus der Tatsache, dass die Distanz im Merkmalsraum keine Aussagen über die Distanz in einem Merkmal gefolgert werden kann. Das heißt mit anderen Worten, Lesen im Kaffeesatz ist eine wissenschaftliche Methode verglichen mit dem hier vorgeschlagenen "Schätzverfahren"!
Weiterhin unsauber ist die Auslassung einer Information, wie die Merkmale vorverarbeitet werden - Wird zum Beispiel die Dominanz eines Merkmals adressiert, welches eine deutlich höhere Dynamik hat als andere - wenn ja -wie? Darüber hinaus existiert keine Möglichkeit zur Berechnung des Index eine Wichtung der einzelnen Merkmale vorzunehmen - ein Staat ist entsprechend des hier vorgeschlagenen Modells entweder "gut" oder "schlecht". Es ist aber durchaus denkbar, dass ein Unternehmen, das so unbedarft ist, sich dieses Verfahrens zu bedienen auf ein oder mehrere der benutzten Merkmale keinen Wert legt und dafür andere stärker gewichten möchte. Das Paper sieht dafür keine Mechanismen vor und diskutiert daher auch deren mögliche Auswirkungen nicht.
Interessant ist hier ein Trend, den ich bereits versschiedentlich beobachtet habe: Wir kippen den Leser mit möglichst vielen, möglichst komplex aussehenden Formeln zu - dadurch verdecken wir die inhaltlichen und handwerklichen Unsauberkeiten!
Auf Abschnitt 6 - die Resultate gehe ich hier gar nicht mehr ein. Die Autoren hätten gut daran getan, zumindest eine Clusteranalyse des Merkmalsraums durchzuführen - vielleicht haben sie das auch getan und festgestellt, dass die resultate die Absurdität ihrer Idee illustriert hätte und sie daher nicht veröffentlicht.
Wer sich die schicken Formeln ansehen möchte - bittesehr!
03.04.2021
Meine Funde neulich auf dem Arxiv-Preprint-Server haben mich auf folgende Idee gebracht: Es gab in der Vergangenheit diverse Papers, die komplett durch eine sogenannte "AI" erstellt wurden und es trotz der Tatsache, dass sie keinen einzigen sinnvolen Gedanken enthielten durch den Peer-review-Prozess geschafft haben und veröffentlich wurden. Das betrifft aber nur Text - was, wenn man in einem solchen generierten Produkt auch einige kompliziert aussehenden Formeln benötigt?
25.02.2021
Auch wenn der Februar noch nicht ganz um ist haben sich bereits wieder - wie schon im Januar - vier Papers angefunden die ich hier kurz vorstellen möchte.
Multi-User-WebDAV, Docker, GitHub
17.11.2019
Nachdem ich mich in letzter Zeit verstärkt mit Docker und dem zugehörigen Ökosystem beschäftige, habe ich begonnen, verschiedenste Dienste in Containern zu testen um zu sehen, ob in manchen Fällen LXC oder KVM nicht doch die bessere Wahl wäre...
Weiterlesen...Android Basteln C und C++ Chaos Datenbanken Docker dWb+ ESP Wifi Garten Geo Go GUI Gui Hardware Java Jupyter Komponenten Links Linux Markdown Markup Music Numerik OpenSource PKI-X.509-CA Python QBrowser Rants Raspi Revisited Security Software-Test sQLshell TeleGrafana Verschiedenes Video Virtualisierung Windows Upcoming...
In eigener Sache...
Weiterlesen...Ich habe eine neue Java Swing Komponente erstellt: Es handelt sich um einen Wrapper für von JToolBar abgeleitete Klassen, die die Werkzeugleiste minimieren und sie nur dann einblenden, wenn der Mauszeiger über ihnen schwebt.
Weiterlesen...Ich habe bereits in einem früheren Artikel über meine ersten Erfolge berichtet, der sQLshell auf Basis des bestehenden Codes aus dem Projekt EBMap4D eine bessere Integration für Geo-Daten zu spendieren und entsprechende Abfragen, bzw. deren Ergebnisse auf einer Kartenansicht zu visualisieren.
Weiterlesen...Manche nennen es Blog, manche Web-Seite - ich schreibe hier hin und wieder über meine Erlebnisse, Rückschläge und Erleuchtungen bei meinen Hobbies.
Wer daran teilhaben und eventuell sogar davon profitieren möchte, muss damit leben, daß ich hin und wieder kleine Ausflüge in Bereiche mache, die nichts mit IT, Administration oder Softwareentwicklung zu tun haben.
Ich wünsche allen Lesern viel Spaß und hin und wieder einen kleinen AHA!-Effekt...
PS: Meine öffentlichen Codeberg-Repositories findet man hier.