Um die Technik kümmern sich die Anderen…

Das Phänomen von ‘sozio-technischen Systemen’ und ‘Ökosystemen’

Mammut aus Gras von Christopher Alvarenga – [4]

Wenn wir uns als technisch begeisterte Computer Science Studierenden ein zu Deutsch “Ultra Großes, Skaliertes System” vorstellen… Was stellen wir uns dann wirklich vor? Naja wir denken wahrscheinlich erstmal an viele Zeilen Code, Unmengen von Server-Hardware und ellenlange Kabel. Das allein macht ein Ultra Large Scaled System (ULS) aber noch lange nicht aus.

Zunächst sprechen wir hier von einem “klassischen” System oder System von Systemen, das wir uns da versuchen vorzustellen. Selbst bei solchen Systemen wissen wir bereits: Die können ganz schön groß werden. Es wird immer schwieriger sich greifbar auszumalen, vorzustellen oder gar darzustellen, wie ein solches System aufgebaut oder designed ist. Sich allein ein “System von Systemen” vorzustellen ist eine wirklich große Herausforderung. Und es kommt noch Besser: Jemand muss das System ja auch verstehen, testen, warten, Support leisten und vielleicht auch noch weiterentwickeln…

Na? Ist dir schon schwindelig? Dann festhalten, denn ich lege noch eine Schippe oben drauf. Ich habe noch gar nicht von “Ultra Large Scale Systems” (ULS) gesprochen, sondern lediglich von “klassischen” Systemen bzw. Systemen von Systemen. Ein ULS ist laut der Definition von Northrop nämlich viel mehr als ein System eines Systems. Es wird mittlerweile bereits von Experten als ein Ökosystem [1] bezeichnet. Und das aus gutem Grund.

Ich möchte mir in diesem Artikel gern die menschliche Komponente eines solchen Systems, oder vielmehr Ökosystems, anschauen. Dazu habe ich mir einige Fragen gestellt:

  • Gibt es eine Schnittstelle zwischen sozialem und technischem System?
  • Wie verantwortlich ist eine Organisation in solchen ULS?
  • Was machen die Tech Giganten wie Meta bzw. Facebook und Google zur Zeit bezüglich Verantwortung & Steuerung solcher ULS?

Und zum Schluss gebe ich noch ein kurzes Statement und weitere Leseempfehlungen dazu.

Der Begriff des “Ökosystems”

Um alle Fragen hinreichend zu beleuchten und zu klären, möchte ich erst einmal auf die Definition eines “sozio-technischen Systems” eingehen und den Begriff des “Ökosystems” in diesem Kontext erläutern.

Das Buch von Northrop, beleuchtet und erklärt diese Begriffe besonders schön, denn in meinen Augen prägen sie das Phänomen und den Begriff des sozio-technologischen Ökosystems [1, p. 6]. Aus dem Buch von Northrop:

“[…] like a biological ecosystem, a ULS system comprises a dynamic community of interdependent and competing organisms (in this case, people, computing devices, and organizations) in a complex and changing environment.”

Northrop [1; p. 6]

Es geht demnach nicht mehr ausschließlich um vorhersehbare, konzeptionierbare, technische Systeme, die möglicherweise groß und automatisiert, aber dennoch definierbar sind. Es sind vielmehr technische Systeme, die mit den Nutzern selbst, ihren Interaktionen und den von ihnen aufgestellten “Regeln” weiter wachsen – wie ein Organismus. Alle Einwirkungen in dieses System haben auch Auswirkungen auf das System selbst. Die Kreation des Systems wird mit der Nutzung quasi verändert [1]. Systeme heutzutage entwickeln sich in sich selbst durch den Einfluss der Nutzung weiter.

Neu ist jedoch, dass die meisten Systeme unter dem Aspekt eines Ökosystems von Personen beeinflusst werden, die das System modellieren, warten, ihre Regularien festlegen, nutzen und im weiteren Sinne auch finanzieren. Es ist nicht zu unterschätzen, welchen Einfluss selbst die Politik oder Geldgeber auf solche Systeme nehmen kann.

Sillitto schrieb bereits 2010, dass die eigentlich vorhergesehene Nutzung von ULS ein hohes Maß an Vertrauen, Schutz, Sicherheit, Servicequalität, Informationssicherheit und Datenintegrität abverlangt [2]. Das bedeutet so viel wie: Die Aufstellung sowie Einhaltung und Kontrolle von gewissen (Spiel)Regeln schon beim errichten einer solchen Architektur ist unerlässlich.

In dem Paper geht Sillitto auch darauf ein, dass sowohl die MDA (model driven architecture) als auch Architektur-Frameworks, auf denen bis dahin viele Technologien aufgebaut haben – und es immer noch sind – wichtige Aspekte nicht richtig adressieren: Unter anderem Policies, Werte, Verhaltensweisen und Kulturen sowie die Entstehung weiterer Fragestellungen durch sozio-technologische Probleme und nicht-lineare System-Dynamiken [2].

Was mich fasziniert hat, dass wir in der Praxis scheinbar weiter sind als in der Forschung: Es werden Systeme aufgesetzt, bei denen die Wissenschaft gar nicht hinterher kommt, diese wissenschaftlich zu beschreiben oder zu analysieren. Eine Mögliche Erklärung hierfür ist, dass wenn Forschung zu ULS betrieben wird, es in den wissenschaftlichen Bereichen geschieht, in denen Computer Scientists jedoch gar nicht zugegen sind [2]. Dieses Thema scheint doch geradezu eine Möglichkeit zu sein, interdisziplinäre Forschung zu fördern, weiter auszubauen und Disziplinen für Kollaborationen zusammen zu bringen. Vielleicht können wir in der (Computer Science) Forschung noch viel mehr über unseren Tellerrand schauen und uns vernetzen. Viele große Unternehmen und auch Start-Ups haben das schon begriffen und die “Tech Konferenzen” ziehen mittlerweile nicht mehr nur Tech-Begeisterte an. Mit gutem Grund möchte ich meinen… Aber ich schweife ab…

Die Interdisziplinarität – Vernetztheit – ist in ULS von so großer Bedeutung, dass es in diesem Ausmaß neu wirkt und muss demnach erforscht und mit innovativen Ideen und Erkenntnissen weiterentwickelt werden. Am allerbesten mit ExpertInnen, die sich untereinander austauschen. Es reicht nicht mehr nur super tolle Software ArchitektInnen einzusetzen, die sich alle paar Jahre mal mit ein paar Menschen aus anderen Fachbereichen zusammen tun, um Policies durch zu gehen. Policies (also Regeln) müssen gemeinsam entwickelt werden! Und das kontinuierlich. Da sich ein ULS ja auch in sich immer weiterentwickelt.

Und da die Systeme so groß werden, sind diese Menschen in Zukunft auch nicht nur ArchitektInnen innerhalb eines Unternehmens, sondern ganze Unternehmen, die sich gegenseitig beraten werden. Wir müssen in einer größeren Dimension denken. Northrop schrieb in ihrem Buch:

There will be organizations and participants responsible for setting acquisition, production, and operational policies governing the overall system, and there will be organizations, technologies, and people responsible for producing ULS systems.

Northrop [1; p. 7]

Die Auswirkungen eines solchen Systems sollten demnach so gut es geht erfasst und sich dessen Umfang bewusst gemacht werden. Mit allen Aspekten und auch allen ExpertInnen.

Technisches System und Soziales Gefüge – Die Grenzen verschwimmen

Wie bereits erwähnt: Es geht nicht mehr lediglich um Systeme oder Systeme von Systemen. Die Menge an Menschen, die daran arbeiten, Daten, die gespeichert, verarbeitet, manipuliert und ausgegeben werden ist gigantisch. Die Verbindungen, die aufgebaut wurden – und tagtäglich werden – enorm. Wie ein komplexes Ökosystem, das sich durch das Leben innerhalb seines Systems weiter entwickelt.

Stellen wir uns als Exkurs kurz das Ökosystem einer Stadt vor: Sie wurde geplant und erbaut, jedoch entwickelt sie sich dynamisch mit der Zeit immer weiter. Menschen die in der Stadt leben, haben diese (vielleicht) auch geplant und errichtet oder tragen zur Instandhaltung bei.

Diese Vorstellung lässt sich bereits heute auf das Wachstum von ULS übertragen. Traditionell glauben noch viele Menschen an ein technologie-zentriertes, rational gebildetes, recht großes System. Das von oben herab und zentral mit Prozessen reguliert werden kann. Im großen Gegensatz dazu steht jedoch ein ULS. Personen, Organisationen und Technologie aus allen unterschiedlichen Ebenen – von Menschen, die Policies (Regeln & Gesetze) implementieren über die, die Systeme entwickeln. Und selbst diejenigen, die Systeme verwenden; alle haben letzten Endes großen Einfluss auf das System selbst. Bereits 1996 nennt Maier solch ein Phänomen die “Abnutzung der Mensch/System Grenze” (erosion of the people/system boundary):

“People will not just be users of a ULS system; they will be elements of the system, affecting its overall emergent behavior.”

Maier [3]

Northrop greift diese Aussage in ihrem Buch auf, und erklärt auf den Seiten 17 und 18 näher, was es mit diesem Phänomen auf sich hat. Ich versuche das Ganze mal in meinen Worten wiederzugeben:

Die Rollen von NutzerInnen, EntwicklerInnen und dem (UL) System werden verschwimmen. Wenn ein System beispielsweise darauf ausgelegt war, der Nutzerin zu helfen einen Job überhaupt auszuüben, so verhält es sich mit dem ULS anders. Der Nutzerin wird beispielsweise immer noch geholfen einen bestimmten Job auszuüben aber sie kann gleichfalls darüber hinaus auch das System weiterentwickeln, warten und überprüfen. Es ist nicht mehr ihre alleinige Aufgabe, das System ausschließlich zu nutzen, sondern auch mit diesem zu interagieren und durch diese Interaktion weiter zu entwickeln. Sie hinterlässt “Spuren” in dem System mit ihren Daten und der Art und Weise wie sie das System nutzt um ihren Job auszuüben. Es bedeutet, dass sie in das System eingreift, es verändert, konfiguriert und möglicherweise Prozesse und Abläufe ändert (bewusst oder aber auch unbewusst).

Ich möchte an dieser Stelle zusätzlich ergänzen: Jetzt haben wir nur den Fall betrachtet, da eine einzige Nutzerin mit dem System interagiert. Das System sollte jedoch so funktional sein, dass wenn mehrere Personen zur gleichen Zeit – möglicherweise sogar dieselbe – Aufgabe ausführen, es so tolerant sein sollte auf die Veränderungen zu “reagieren” oder sich selbst zu adaptieren. Genau das ist ja auch der Zauber an solchen Systemen. Durch die Nutzung können Datenmengen gesammelt und ausgewertet werden. Und somit können wiederum die Services des Systems auf das Nutzungsverhalten angepasst werden – möglicherweise sogar vollautomatisiert.

Betrachten wir das Phänomen “Mensch” noch näher: Es ist erwiesen [2], dass die meisten Menschen kurzfristige über langfristige und lokale über globale Interessen priorisieren. Sicherheiten im wirtschaftlichen Sinne und – scheinbar – exzessive monetäre Ausgaben für (wirtschaftliche) Stabilität gehören da dazu. Der Mensch denkt in seiner natürlichen Form also eher an sich und weniger an das Kollektiv. Das macht es schwierig das Verhalten eines Einzelnen vorher zu bestimmen. Wenn wir diese Verhaltensweisen – streben nach Stabilität und Sicherheit – von Grund auf in unserem Design eines ULS jedoch berücksichtigen, dann wird das System langfristig erfolgreicher bleiben, als eines, das sich auf Selbstlosigkeit und die Handlung gegen die eigene Intuition Einzelner verlässt. Außerdem ist das Konkurrenzverhalten (kompetitives Verhalten) – im Gegensatz zum kooperativen Verhalten – das Verhalten der meisten Menschen zur meisten Zeit. 

Man könnte nun schlussfolgern, dass es schwierig ist das Verhalten von Personen zu bestimmen. Northrop schreibt, dass es zwar schwierig ist das Verhalten einer einzigen Nutzerin oder eines Nutzers vorherzusagen, das Verhalten einer Nutzergruppe kann jedoch recht brauchbar zur Analyse herangezogen werden [1]. Es ist also nicht von der Hand zu weisen, dass ein Design eines ULS Menschen benötigt, die miteinander auf ein gemeinsames Ziel hinarbeiten. Konkurrenzverhalten kann solch ein ULS zerstören:

“Collaborative behaviour is essential to allow ULSS to be conceived, deployed and configured. ULSS design needs to provide sufficient benefits in all lifecycle phases to all stakeholders that all will have more to gain by participation in the ULSS than by competitive behaviour that could destroy it.”

Sillitho [2]

Aber nicht nur Konkurrenzverhalten der Menschen sollte bei einem Design eines ULS im Vorfeld beachtet werden, es ist auch von großer Wichtigkeit das Macro-Verhalten und die allgemeine Integrität eines Systems so zu designen, dass es fehlertolerant ist. Es sollten mehrere Schichten eingebaut werden, bei denen Ausfälle teilweise vorgebeugt werden können und die das Wiederherstellen oder Rückgängigmachen von Konfigurationen möglich machen. Unvorhersehbares, Rekonfigurationen und Ausfälle, zB. von Hardware – in einem Cluster, Nodes – werden darüber hinaus die Regel sein und nicht mehr die Ausnahme. Es gibt beim Design und der Nutzung von ULS einiges zu beachten. Interessant zu beobachten und neu ist vor allem das “Verschwimmen der Mensch-System-Grenze”. Diese Tatsache sollte uns zum Nachdenken anregen und uns vielleicht sogar in unserem alltäglichen, sozialen Verhalten beeinflussen. Wenn wir mit kollektivem Handeln ULS beeinflussen, dann müssen wir miteinander arbeiten und füreinander handeln. Das Konkurrenzdenken würde unserem System schon von Grund auf nachhaltig schaden. Auch als Organisationen sollten wir das Design von ULS auf das Kollektiv ausrichten und mit Policies in eine Richtung lenken, die für das Allgemeinwohl steht. Zusammenfassend kann man sagen: NutzerInnen sind ein Einflussfaktor auf ULS und es ist nicht einfach die Verhaltensweisen von einzelnen Personen vorherzusehen. Aber NutzerInnen benutzen ULS im Kollektiv, was wiederum recht vorhersehbar sein kann – allein durch die Sammlung von Datenmengen und die Vorhersage bestimmter Verhaltensweisen. Und zu guter Letzt: Soziale Interaktionen sind von großer Bedeutung wenn es um die Nutzung von ULS geht.

Je mehr Menschen, die ULS nutzen, miteinander kommunizieren, sich austauschen und deren Expertise in das System gezielt einfließen lassen, desto besser kann das ULS schließlich designed und (weiter)entwickelt werden.

Tech Giganten – Verantwortung & Steuerung von ULS

Es ist nicht von der Hand zu weisen, dass sich Tech Giganten wie Google oder Facebook wohl des Öfteren mit der Frage der Verantwortung beschäftigen. Verantwortung hat in diesem Kontext auch mehrere Facetten…dazu unten mehr.

Wer die Schlagzeilen verfolgt, konnte ab und an einen Ausschnitt aus der Debatte mitbekommen. Besondere Schlagzeilen machte der “Cambridge Analytica Skandal” in 2018. Da habe ich eine ganz interessante Quelle von Netzpolitik gefunden. Außerdem, sehr unterhaltsam, spannend und gruselig fand ich zuletzt den Satire-Beitrag von Jan Böhmermann über Facebook und die Kampagne “enteignetfacebook”.

Nichtsdestotrotz habe ich versucht etwas tiefer im Internet zu recherchieren und etwas mehr über die oben genannte Frage herauszufinden. Denn wenn man nicht die schönsten Seiten oder Schlagzeilen über Google wissen möchte, dann hilft die Google Suchmaschine natürlich nur bedingt weiter… Daher auch viel mehr News zum Thema Facebook – oder wie es seit Ende letzten Jahres heißt Meta – zum Thema Verantwortung.

Da Facebook und die “Magie” hinter dem Netzwerk schon lange nicht mehr auf klassisch-engineerten Systemen fungiert, sondern auf Machine Learning Algorithmen und Künstlicher Intelligenz (kurz KI), betrachten wir einige Artikel hierzu etwas genauer.

Facebook (bzw. Meta)

Der Einfachheit halber werde ich in diesem Blog-Beitrag weiter von Facebook sprechen und nicht von Meta. Vieles lässt sich natürlich auf das heutige Meta übertragen denn im Grunde ist nur der Name der Firma neu.

XCheck (betont: Cross-Check) Algorithmus

Wie letzten Jahres durch das Wall Street Journal bekannt wurde setzt der XCheck Algorithmus gewisse Profile auf eine so genannte “Whitelist” und erlaubt es bestimmten NutzerInnen gegen die Richtlinien Facebooks zu verstoßen – ohne Konsequenzen. Fatal dabei ist, dass dadurch gewisse Postings oder auch Formulierungen von Texten von der Prüfung (gegen die eigentlichen Richtlinien von Facebook) schlicht wegfallen. Die Begründung?

“Das Programm habe als eine Art Qualitätskontrolle für Maßnahmen gegen besonders publikumswirksame Accounts auf Facebook seinen Anfang genommen.”

Martin Holland, heise

Hier der originale Artikel des Wall Street Journals und ein weiterer – hier zitierter – deutschsprachiger Artikel von heise. Natürlich kann man mich jetzt fragen: Ja aber was hat das Ganze denn mit Technik und vor allem mit den Menschen bzw. der Organisation zu tun? Eine ganze Menge. Wie wir oben bereits gelernt haben beeinflusst die Nutzung eines ULS auch den Aufbau eines ULS. Die Mensch-System-Grenze verschwimmt.

Und somit auch die Erklärung: Algorithmen sind bekanntlicherweise nur so gut und so vorurteilsbehaftet (engl. bias) wie die Menschen, die sie programmieren. Die Ausnahmen aus solchen Policies durch die – von Menschen erschaffenen und zugelassenen – Algorithmen wie XCheck sind nicht zwingend das inhärente Problem von Facebook (als technisches System) sondern der Menschen. Die Organisation und die Regeln die durch die Organisation “Facebook” aufgestellt (oder eben auch nicht aufgestellt) werden und durchgesetzt werden (sollen).

Durchsetzung von Policies

Wie durch die Whistleblowerin Frances Haugen bekannt wurde, weiß die Organisation “Facebook” über gewisse Nutzungsverhalten – und somit auch Veränderungen im System – bescheid. Denn sie machen Studien darüber. Und sie setzen die Regeln nicht durch, die diese Probleme beheben oder mindern würden. Denn dies würde ihren Gewinn durch gezielte Werbungen mindern. Es ist Facebook bekannt, dass polarisierende Posts mehr angesehen, geteilt und darauf reagiert wird – und dann auch mehr Werbung die dort geschaltet wird, Wirkung zeigt. Die Menschen sind öfter und länger auf Facebook. Das bedeutet es geht um die Maximierung der Nutzung der Plattform – und somit der angezeigten Werbung. Und dadurch erreicht Facebook eine Steigerung seines wirtschaftlichen Gewinns. Hier ein Ausschnitt aus den Dokumenten, die Frances Haugen veröffentlicht hat:

“We only take action against approximately 2% of the hate speech on the platform. Recent estimates suggest that unless there is a major change in strategy, it will be very difficult to improve this beyond 10-20% in the short-medium term.”

Keith Zubrow, Maria Gavrilovic and Alex Ortiz, CBN News

Der ganzen Artikel vom 04. Oktober 2021 ist hier zu lesen bei CBN News. Ein weiterer Artikel vom 05. Oktober 2021 beleuchtet die technische Verantwortung besonders gut. Es gibt einige Vorschläge zur Veränderung der Algorithmen um Problematiken wie Policies in verschiedenen Sprachen der Welt durchzusetzen oder den chronologischen News-Feed zurück zu bringen. Es wird auf den FBLearner Machine Learning (ML) Algorithmus eingegangen – sehr spannend, da können Ingenieure, die nicht besonders fit in ML sind trotz allem ganz einfach ML Modelle anlegen und trainieren.

Interessant für uns in diesem Artikel ist, dass Haugen anspricht, wie Facebook innerhalb der Organisation aufgestellt ist. Es scheint durch die Aufstellung der Teams innerhalb des Unternehmens keine Verantwortung zu geben gemeinsam moralische Algorithmen herzustellen und Policies durchzusetzen. Im Gegenteil. Teams scheinen mitunter gegeneinander zu arbeiten:

“Within Facebook, there’s no one team in charge of [this] content-ranking system in its entirety. Engineers develop and add their own machine-learning models into the mix, based on their team’s objectives. For example, teams focused on removing or demoting bad content, known as the integrity teams, will only train models for detecting different types of bad content. […] different teams can have competing objectives, and the system has grown so complex and unwieldy that no one can keep track anymore of all of its different components.”

Karen Hao, MIT Technology Review

Meta hat – vielleicht auch begründet aus den Schlagzeilen – ihre “responsible innovation principles” für “Reality Labs” in 2020 veröffentlicht.

Google

Auch Google hat immer mal wieder Schlagzeilen erlitten. Zum Beispiel bei der Verantwortung zur Durchsetzung des so genannten Parent-Modus. Es sollte Eltern möglich sein, die Zeit am Bildschirm und die Inhalte ihrer Kinder zu kontrollieren – und das nicht kompliziert in irgendwelchen Untermenüpunkten, sondern ganz einfach. Und daraus entstanden auch Policies (Richtlinien) um zB. Corporate Social Responsibility zu messen oder Nachhaltigkeits-Initiativen. Ist dies ein Tropfen auf den heißen Stein? Vielleicht – doch immerhin gibt es Ansätze für einen Shift.

Auch Apple, Amazon oder Microsoft waren schon in den Schlagzeilen bezüglich ihrer Verantwortung – gegenüber der Gesellschaft, den Inhalten oder Geräten die sie anbieten oder dem Planeten. Für mich war es an dieser Stelle ein Anliegen gerade das Thema “Social Media Networks” näher zu betrachten und die sozio-technische Verantwortung. Daher habe ich hier als Beispiel Facebook bzw. Meta ausgewählt.

Und jetzt? – Anmerkungen zum Schluss

Da sich in den letzten Wochen in Europa nun doch so einiges verändert hat, möchte ich auch hier noch in ein paar kurzen Sätzen auf die Auswirkungen des Russland-Ukraine-Krieges auf die “sozialen” Netzwerke eingehen. Es wurden interessante Artikel hierzu veröffentlicht. Bloomberg schreibt am 04. März 2022, dass Twitter, Facebook und YouTube (Google) auf Beiträge und vorgefertigte Texte von russischen Medien im Vorfeld reagierten. Inhalte werden nun akribischer geprüft und gebannt. Ein Schritt in eine Richtung, die in 2016 bei den U.S. Wahlen noch gefehlt hatte. Der Artikel zu dem Thema ist spannend und das Thema würde einen weiteren Blog-Artikel füllen.

Ich glaube, dass ich selten so viel über die Tech Giganten versucht hatte heraus zu finden, wie bei der Recherche zu diesem Thema. Erstaunlich ist auch, dass viel Research vom US Defence Council dazu gefördert wird. Wobei wenn man sich das genau überlegt, es vermutlich gar nicht so erstaunlich ist. Die Themen, die ich ansatzweise in diesem Artikel behandelt habe, lohnen sich wirklich noch in weiterer Tiefe durchzulesen oder gar zu erforschen.

Außerdem möchte ich noch einmal explizit erwähnen, wie wichtig es ist die menschliche Komponente beim Design solcher ULS nicht zu vergessen. Die Interdisziplinarität dieser “technischen” Systeme ist komplex und geht uns alle an. Wenn wir alle gemeinsam helfen, diese Systeme nach bestem Interesse – nicht nur kurzfristig und für uns – sondern langfristig und für alle zu gestalten, dann tragen wir einen enormen Wert für unsere gesellschaftliche, ökologische, politische und soziale Zukunft bei. Ich würde mir daher wünschen, dass sich alle weiter mit diesem Thema auseinander setzen. Hinterfragt die Giganten von Zeit zu Zeit, beschäftigt euch mit den Dingen, die ihr tagtäglich konsumiert und behaltet einen kritischen Blick.

Weitere interessante Artikel

  • Der Artikel (11.03.2021) handelt von dem Mann, der den Grundstein für Facebooks Algorithmen gelegt hat: Quiñonero. Sehr interessante Insights und auch verständlich erklärt von Karen Hao.
  • Spielerischer Artikel zum Thema AI und Fairness: Can you make AI fairer than a judge? Play our courtroom algorithm game 
  • Dieser Artikel beleuchtet die Wichtigkeit von Studierenden, die jetzt programmieren lernen, auch die soziale und ethische Seite von Algorithmen zu kennen und wie das MIT damit umgeht.
  • Angesichts der Nachhaltigkeit und der Zukunft unseres Planeten: Ein Artikel über soziale Netzwerke und deren Energieverbrauch.
  • Und Aktuell: Meta (16.000 GPUs Cluster) Größtes GPU Cluster der Welt – zum heutigen Zeitpunkt.

Quellenangaben

[1] – Ultra-Large-Scale Systems, The Software Challenge of the Future, Study Lead: Linda Northrop, June 2006, Unlimited distribution subject to the copyright. Pittsburgh, PA 15213-3890

[2] – Design principles for Ultra-Large-Scale (ULS) Systems, 2020, Mr Hillary G Sillitto, Thales UK, 1 Linthouse Road, Glasgow G51 4BZ, Scotland, UK

[3] –  Architecting Principles for Systems-of-Systems, 1998, Mark W. Maier
[4] – Photo by Christopher Alvarenga on Unsplash