Juni 2016

Band 31, Nummer 6

Dieser Artikel wurde maschinell übersetzt.

Anmerkungen der Redaktion – Kognitive Verzerrung

Durch Michael Desmond | Juni 2016

Michael DesmondIn meinem letzten Artikel (msdn.com/magazine/mt703429), habe ich beschrieben, wie auf das Kühlmittel Verlust-Ereignis auf die drei Meilen Island (TMI) nukleare Anlage 1979 Steuern von empfangenen Kenntnisse aus einer anderen Domäne strukturiert wurden – in diesem Fall Schulung, die Operatoren, die in den USA erhalten möchten Die Navy nukleare Flotte. Mit in Konflikt stehende Informationen aus funktioniert nicht ordnungsgemäß und dysfunktionale-Systemen und Steuerelemente konfrontiert, entschieden Operatoren Wasser Ebene Messwerte in das Kühlsystem Pressurizer Behälter zunächst gegenüber denen in der Core-Ladung selbst bearbeiten. Der Incident führte eine partielle Treibstoff überdauern und dem schlechtesten kernreaktionen Reaktor Unfall in der Geschichte der USA.

Die Lektionen TMI hinausgehen die Bias, die IT-Experten mit ihnen zu übertragen, wie Übergänge zwischen Organisationen, Projekte und Aufgaben. In der Tat aufdecken TMI und nukleare Vorfälle z. B. 2011 Fukushima Daichii Ausfall in Japan einen wichtigen Aspekt zu menschlichen Natur bei Ausfällen Krise und vorhanden aufgestellt Lektionen für Softwareentwickler, die auf Termine, budgetbeschränkungen, Code Fehler, Sicherheitsrisiken und zahlreiche andere Economy reagiert werden müssen.

Arnie Gundersen ist eine nukleare Technologiebranche und chief Engineer bei Fairewinds Energie Education. Während einer Präsentation April 2016 in Japan beachtet er, dass die Anlage Operatoren TMI und Fukushima Instruments zuverlässig, der fälschlicherweise angegeben ", dass viel Wasser in der Reaktor kernreaktionen beim ist in der Tat ist none."

Er weiter: "Jede liest, true und Schwerwiegender war, betrachtet sie als fehlerhaft. Jede lesen, die fehlerhafte aber wirklich gut war, zuverlässig sie. Das ist ein Trend, die ich immer finden Sie unter in Reaktion auf Notfälle. Operatoren möchten die Instrumente annehmen, die sie zu dem Schluss kommen, die, denen Sie abrufen möchten."

Normalität Bias werden einige dieser erläutert. Menschen sind die Wahrscheinlichkeit und Auswirkungen eines Notfalls unterschätzen und tendenziell als Wikipedia-Notizen "Warnungen am optimistische wie möglich, auf Mehrdeutigkeiten ein weniger ernstes Problem ableiten übernehmen interpretieren." Diese kognitive Eigenart tritt überall auf der Welt – im Flugzeug-Cockpits Finanzinstitute, Regierungsbehörden und natürlich Entwicklungsunternehmen Software. Banken und finanzielle Unternehmen weiterhin z. B. in riskante vor der globalen finanzielle Reduzieren von 2008, trotz der bevorstehenden geschwächt deutlich zu erfassen. Fehler bei in Minuten oder Stunden vor der Rahmen Horizont Oil Spill in 2010 Operatoren auf ungewöhnliche Druck und flüssigen Messwerte gut, in denen calamitous sonst nicht portended fungieren. Nach der Auflösung heruntergespielt British Petroleum die Auswirkung der Datenflussrate der Öl in dem Golf von Mexiko auf lediglich 1.000 auf 5.000 Tintenfässer pro Tag, schätzen, während die US-Regierung Datenfluss Rate technischen Gruppe (FRTG), Abbildung 62,000 Tintenfässer platziert.

Wird ignoriert beunruhigend Indikatoren, downplaying Schaden und Informationen zu glauben, die positive Ergebnisse unterstützt auswählen – Hierbei handelt es sich um fehlerhafte Antworten, die ungültige Situationen sehr schlecht vornehmen können. Aber die Motivation, deren Teilnahme an ist stark. Wenn ich Gundersen befragt, verbesserten er den home Punkt durch Zitieren Autor Upton Sinclair, dem selbst geschrieben haben: „Es ist schwierig, jemanden dazu zu bringen, etwas zu verstehen, wenn er sein Gehalt dafür bekommt, dass er es nicht versteht.“

Für Entwickler, die gedrückt unrealistisch Ship Zeitpläne, unzureichende Budgets und anspruchsvoll Software, die Möglichkeit, clear-eyed Urteile Spells den Unterschied zwischen Entscheidungen schwierig heute und zugängliche viel schwieriger zu ersparen.


Michael Desmondist der Chefredakteur des MSDN Magazine.