Samstag, 3. August 2013

Architektur der NSA Abhörinfrastruktur

Die Powerpoint Präsentation in [1] aus dem Jahr 2008 nennt Details zum Aufbau der Abhörinfrastruktur der NSA. Die Abhörinfrastruktur ist dezentral organisiert. An jedem der dezentralen Standorte werden die gesamten erfassten Rohdaten ca. 3 Tage gespeichert, indiziert nach den Metadaten (z.B. Absenderadresse und Empfängeradresse einer E-Mail). Das System verfügt jedoch über die Möglichkeit bei hohem Datenaufkommen weniger Daten zu erfassen, vermutlich werden in diesem Fall lediglich die Metadaten erfasst. Abfragen der NSA Analysten gehen an alle angeschlossenen Systeme. Die Server an den dezentralen Abhörstandorten sind Linux-basiert. Im Jahre 2008 waren über 700 Server an 150 Standorten im Einsatz. In der Powerpoint Datei wird an einer Stelle von 500 Servern gesprochen, an einer anderen von 700 Servern. Dies könnte ein Hinweis darauf sein, dass die Serverkapazität in kurzer Zeit stark erweitert wurde. Das System skaliert linear, d.h. es kann einfach durch das Hinzufügen von Servern erweitert werden. Um dies zu erreichen werden Anfragen hierarchisch an die einzelnen Untersysteme weitergeleitet. Es besteht die Möglichkeit Suchaufträge zu formulieren und die dem Suchauftrag entsprechenden Daten länger zu speichern. Der dezentrale Aufbau des Systems erlaubt es, mit sehr großen Datenmengen umzugehen. Laut [2] wurden im Jahr 2012 500 Milliarden Metadaten für die NSA Datenbank gesammelt.

Bei mehr als 150 Standorten und angenommener Gleichverteilung des Traffics fallen also pro Standort maximal 9 Millionen Metadaten pro Tag an, in einer 3-Tage-Speicherperiode also 27 Millionen Metdadaten. Zu diesen Metadaten werden in der 3 Tage Speicherperiode alle Inhalte festgehalten. Bei den Inhalten handelt es sich um E-Mails, Telefongespräche, Chats, Web-Traffic. Bei angenommenen 35 MB pro Metadatum wird also eine Speicherkapazität von 945 Terabyte benötigt um jederzeit alle Inhalte speichern zu können. Zusätzlich wird noch Speicherplatz für den Index und die Metadaten an sich benötigt. Mit den Zahlen aus [4] ergeben sich jährliche Kosten von ca 100.000$ pro Standort und Jahr, der Betrieb aller 150 Abhörstandorte schlägt also mit ca 15 Mio $ zu Buche (Personalkosten nicht berücksichtigt).

Die große Frage lautet: Wo befinden sich die dezentralen Abhörstandorte? Hier einige Vermutungen:
  • Dienstanbieter, z.B. E-Mail-Provider, Chat-Server, ...
  • Kommunikationsknoten, z.B. von Kommunikationsanbietern, die zur Datenlieferung verpflichtet werden können
  • Kooperationsknoten mit befreundeten Nachrichtendiensten.
Laut [3] handelt es sich bei den Abhörstandorten Sigad US-987LA oder US-987LB um den BND Standort Bad Aibling, von dem aus alleine im Dezember 2012 500 Millionen Metadaten an XKeyscore weitergeleitet wurden.




---
Über den Autor:

Der Autor, Prof. Dr.-Ing. Hans-Joachim Hof, ist Professor für Sichere Softwaresysteme an der Hochschule München. Dort leitet er die Munich IT Security Research Group (MuSe). Die Forschungsarbeiten der MuSe umfassen folgende Themen: Softwaresicherheit, IT Security, Cyber Crime Defense, Web Applications und Web Application Security, Netzwerksicherheit (unter anderem: Sicherheit für Cyber Physical Systems, Sicherheit für Sensornetze), Intrusion Detection sowie Usability von Verfahren der IT Security. Prof. Hof leitet an der Hochschule München die Zusatzausbildung "Betrieblicher Datenschutz".
--
Bitte folgendermaßen zitieren:

Hans-Joachim Hof, "Architektur der NSA Abhörinfrastruktur", in: "Wer lauscht? Ein Blog über staatliche Überwachungsmaßnahmen wie PRISM und Co", werlauscht.blogspot.de, 03.08.2013
---
Verwendete Quellen:

[1] "XKeyccore", https://www.documentcloud.org/documents/743244-xkeyscore-slidedeck.html
[2] Glenn Greenwald, "How the NSA is still harvesting your online data", http://www.theguardian.com/world/2013/jun/27/nsa-online-metadata-collection
[3] " Überwachung: BND leitet massenhaft Metadaten an die NSA weiter", in: Spiegel Online, http://www.spiegel.de/netzwelt/netzpolitik/bnd-leitet-laut-spiegel-massenhaft-metadaten-an-die-nsa-weiter-a-914682.html, 03.08.2013
[4] Hans-Joachim Hof, "Telefonüberwachung durch die NSA", in: "Wer lauscht? Ein Blog über staatliche Überwachungsmaßnahmen wie PRISM und Co", werlauscht.blogspot.de, 15.07.2013

Sonntag, 28. Juli 2013

Forensische Lingustik macht Anonymisierung und Pseudonymisierung nutzlos

Pseudonymisierung und Anonymisierung von Nachrichten wird oft als ein Mittel genannt, um die Privatsphäre zu schützen. Dies gilt jedoch nicht, falls es möglich ist anhand des Sprachstils einzelne Autoren zu identifizieren. Die Zeit berichtet in der aktuellen Ausgabe über die forensische Lingustik, welche sich die Identifizierung von Autoren von anonymen Texten zum Ziel gesetzt hat [1]: "Die Linuisten konzentrieren sich auf Wortschatz, Satzbau, grammatische Formen, Orthografie oder Interpunktion. […] Zwar ebnet die Schriftsprache viele dialektale Besonderheiten ein. Trotzdem liefern die Dokumente oft genug Hinweise auf die Region, auf das Alter oder auf den Bildungsgrad des Autors". Erwähnt werden auch die Schwierigkeiten: "Den Linguisten sind die Fallstricke, die ihre Arbeit bereithält, durchaus bewusst: Nicht selten legen Autoren falsche Fährten, um ihre Identität zu verschleiern. […] Meist lassen sich solche Tarnmanöver aber durchschauen". Gewisse Erkenntnisse über Autoren lassen sich also aus anonymen Texten gewinnen, eine genaue Identifiizerung kann jedoch nur erfolgen, so ausreichend Textproben zur Verfügung stehen, die in einem ähnlichen Kontext geschrieben wurden.

Um forensische Linguistik in der Breite einsetzen zu können bestehen meiner Meinung nach folgende Voraussetzungen:

  1. Ausreichende Anzahl an nicht-anonymisierten Vergleichstexten aus ähnlichem Kontext
  2. Automatisierbares Verfahren (die oben erwähnte Analyse wurde von Menschen vorgenommen)
  3. Ausreichende Anzahl an Merkmalen, die automatisiert erfasst werden können.

Zu 1.) - Ausreichende nicht-anonymisierte Vergleichstexte liegen über Sociale Netze und alle damit verbundenen Dienste vor. Facebook z.B. verfügt über Schriftproben aus dem Kontext "Statusmeldungen", "Chat" sowie auch "E-Mail". Geheimdienste sollten auf diese Informationen problemlos Zugriff erhalten können.

Zu 2.) und 3.) - Laut [1] ist die automatisierte forensische Linguistik in den USA aktuell ein boomendes Forschungsfeld, es ist also damit zu rechnen, dass der NSA das nötige Know-How in Kürze zur Verfügung steht. Aktuelle Forschungsergebnisse laut [1]: ""Mit unseren Tools können Strafverfolgungsbehörden nicht nur Gruppen von Autoren, sondern auch Individuen identifizieren, selbst bei Texten von 30 bis 50 Wörtern" sagt der Computerwissenschaftler Farkhund Iqbal. Die Treffergenauigkeit, mit der die Algorithmen den Autor eines Textes aus zehn Verdächtigen herauspicken, geben die kanadischen Wissenschaftler mit 80 bis 90 Prozent an". Bei der Treffergenauigkeit von 80 bis 90 Prozent sollte jedoch berücksichtigt werden, dass lediglich zwischen 10 Verdächtigen unterschieden werden sollte. Laut [2] stehen aktuell 500.000 - 1.000.000 Personen auf der Target List der NSA und werden regelmäßig überwacht. Ein entsprechendes automatisiertes forensisches Linguistiktool müsste mit dieser Anzahl Personen skalieren. Da es sich bei der automatisierten forensischen Linguistik um ein biometrisches Verfahren handelt, bestehen die üblichen Probleme von biometrischen Verfahren auch hier, unter anderem:
  • False Acceptance
  • False Rejection
  • Verfälschung durch Umgebungsbedingungen (z.B. Begrenzung Textlänge)
  • Veränderung der Merkmale mit der Zeit
  • Bei einer großen Anzahl von Personen müssen die Merkmale einen eindeutigen Fingerprint ergeben, der sich genau genug abgrenzen lässt.

Ich sehe die forensische Linguistik in Zukunft als eine große Gefahr für die Privatsphäre. Ein interessantes Projekt wäre die Entwicklung eines Tools, welches den sprachlichen "Fingerabdruck" in Texten verwischt ohne den Sinn des Texts zu verändern. Um solch ein Werkzeug zu entwickeln ist eine Zusammenarbeit zwischen Geisteswissenschaftlern und Informatikern notwendig, hat jemand Interesse?


---
Über den Autor:

Der Autor, Prof. Dr.-Ing. Hans-Joachim Hof, ist Professor für Sichere Softwaresysteme an der Hochschule München. Dort leitet er die Munich IT Security Research Group (MuSe). Die Forschungsarbeiten der MuSe umfassen folgende Themen: Softwaresicherheit, IT Security, Cyber Crime Defense, Web Applications und Web Application Security, Netzwerksicherheit (unter anderem: Sicherheit für Cyber Physical Systems, Sicherheit für Sensornetze), Intrusion Detection sowie Usability von Verfahren der IT Security. Prof. Hof leitet an der Hochschule München die Zusatzausbildung "Betrieblicher Datenschutz".
--
Bitte folgendermaßen zitieren:

Hans-Joachim Hof, "Forensische Lingustik macht Anonymisierung und Pseudonymisierung nutzlos", in: "Wer lauscht? Ein Blog über staatliche Überwachungsmaßnahmen wie PRISM und Co", werlauscht.blogspot.de, 28.07.2013
---
Verwendete Quellen:

[1] Wolfgang Krischke, "Sprache ist verräterisch. Von wem stammt der anonyme Erpresserbrief?", in: die Zeit, Seiten 27ff, 25.07.2013

[2] Hans-Joachim Hof, "Telefonüberwachung durch die NSA", in: "Wer lauscht? Ein Blog über staatliche Überwachungsmaßnahmen wie PRISM und Co", werlauscht.blogspot.de, 15.07.2013

Mittwoch, 17. Juli 2013

Schützen Verschlüsselung und Virenscanner vor der NSA?

Kürzlich kam aus der Politik der Hinweis, man solle sich vor Bespitzelung durch fremde Mächte schützen, indem man selbst Daten verschüsselt und einen Virenscanner einsetzt [1]. Grundsätzlich ist es natürlich eine gute Sache, einen Virenscanner einzusetzen und Daten zu verschlüsseln. Hier stellt sich jedoch die Frage, Verschlüsselung und Virenscanner geeignete Schutzmaßnahmen sind, wenn das Angreifermodell von einem institutionellen Angreifer ausgeht, z.B. dem Geheimdienst eines Drittstaats. Regelmäßig verfügen diese Angreifer über deutlich mehr Ressourcen und andere Möglichkeiten (z.B. Einflussnahme auf Softwarehersteller) als ein "normaler" Angreifer. 

Virenscanner schützen die Integrität von Software-Systemen. Die meisten Virenscanner setzen auf eine Signaturbasierte Erkennung von Malware sowie auf eine Heuristik zur Erkennung von Malware. Sind staatliche Stellen an der Infiltration eines Rechners interessiert, so kommen üblicherweise  auf das Angriffsziel zugeschneiderte Angriffs-Werkzeuge zum Einsatz, für welche ein Virenscanner üblicherweise keine Signaturen kennt. Zudem kann ein Staat die auf seinem Staatsgebiet ansässigen Sicherheitsfirmen dazu zwingen, gewisse Signaturen nicht aufzunehmen. Solch ein Verhalten ist schwer nachzuweisen. Angriffs-Werkzeuge sind zudem üblicherweise gegen die Heuristiken der populärsrten Virenscanner getestet und sind mit diesen oft nicht zu entdecken. Als Beispiel für solch eine Target Attack mag Stuxnet dienen [2]. Virenscanner schützen einzelne Systeme. Institutionelle Angreifer, welche Lausch-Angriffe durchführen werden jedoch regelmäßig versuchen eine Vielzahl von Kommnikationsvorgängen mit wenig Aufwand abzufangen. Es ist deshalb sehr wahrscheinlich, dass institutionelle Angreifer nicht einzelne Endsysteme angreifen sondern eher die Netzwerkinfrastruktur (z.B. Router). Es kann also festgestellt werden, dass Virenscanner sicher ein sinnvoller Baustein gegen Angriffe allgemeiner Art sind, jedoch gegen einen insitutionellen Angreifer wie den Geheimdienst eines Staates wenig ausrichten können.

Für Verschlüsselung existieren vielfältige Algorithemen und Werkzeuge. In der Praxis kommen jedoch nur wenige Algorithemn und Werkzeuge zum Einsatz. Hier ist z.B. der Algorithmus AES zu nennen. In [3] wird als eine der Hauptaufgaben eines NSA Rechenzentrums das Brechen von Verschlüsselungen genannt. Inwiefern die NSA gängige Algorithmen wie z.B. den AES brechen kann ist unbekannt, in [4] wird lediglich allgemein von bedeutenden Fortschritten in der Cryptanalysis gesprochen. Führende Experten gehen davon aus, dass es nicht möglich ist z.B. den Algorithmus AES zu berechen [5], jedoch existieren vielfältige weiter Möglichkeiten zum Angriff auf eine Verschlüsselung, z.B.:
  • Side-Channel Angriffe
  • Angriffe auf das System der Schlüsselerzeugung (z.B. Fehler oder Schwächen im Zufallszahlengenerator auf Mobilgeräten)
  • Angriffe auf Passwörter, welche zur Herleitung von symmetrischen Schlüsseln verwendet werden
  • Angriffe auf Systeme, auf denen verschlüsselte Daten unentschlüsselt vorliegen (z.B. DE-Mail-Server)
  • Informationszugewinn über Schüssel
  • Angriffe auf fehlerhafte Implementierungen von Verschüsselungsalgorithmen
  • Backdoors in Verschlüsselungssoftware
  • ...
Diese Aufzählung zeigt, dass vielfache Angriffsmöglichkeiten bestehen, auch wenn der eigentliche Algorithmus nicht gebrochen werden kann. Zusammenfassend kann gesagt werden, dass Verschlüsselung nur bedingt gegen institutionelle Angreifer wie z.B. den Geheimdienst eines Drittstaats schützen kann, so nicht selbstentwickelte und ausführlich von eigenen Sicherheitsexperten getestete Software zum Einsatz kommt.

 
---
Über den Autor:

Der Autor, Prof. Dr.-Ing. Hans-Joachim Hof, ist Professor für Sichere Softwaresysteme an der Hochschule München. Dort leitet er die Munich IT Security Research Group (MuSe). Die Forschungsarbeiten der MuSe umfassen folgende Themen: Softwaresicherheit, IT Security, Cyber Crime Defense, Web Applications und Web Application Security, Netzwerksicherheit (unter anderem: Sicherheit für Cyber Physical Systems, Sicherheit für Sensornetze), Intrusion Detection sowie Usability von Verfahren der IT Security. Prof. Hof leitet an der Hochschule München die Zusatzausbildung "Betrieblicher Datenschutz".
--
Bitte folgendermaßen zitieren:

Hans-Joachim Hof, "Schützen Verschlüsselung und Virenscanner vor der NSA?", in: "Wer lauscht? Ein Blog über staatliche Überwachungsmaßnahmen wie PRISM und Co", werlauscht.blogspot.de, 15.07.2013
---

Verwendete Quellen:
[1] Markus Beckedahl, "Bankrotterklärung - Minister Friedrich gibt auf: Installiert Virenscanner, um Eure Freiheit zu schützen", https://netzpolitik.org/2013/bankrotterklarung-minister-friedrich-gibt-auf-installiert-virenscanner-um-eure-freiheit-zu-schutzen/, 16.07.2013
[2]  Nicolas Falliere, Liam O Murchu und Eric Chien, "W32.Stuxnet Dossier",  Version 1.4, http://www.symantec.com/content/en/us/enterprise/media/security_response/whitepapers/w32_stuxnet_dossier.pdf,  Februar 2011
[3] Hans-Joachim Hof, "Die Rechenzentren der NSA", in: "Wer lauscht? Ein Blog über staatliche Überwachungsmaßnahmen wie PRISM und Co", werlauscht.blogspot.de, 15.07.2013
[4] Wired, "The NSA is Building Country's Biggest Spy Center (Watch What You Say), http://www.wired.com/threatlevel/2012/03/ff_nsadatacenter/all/, 15.03.2012  
[5] Bruce Schneier, "Can the NSA Break AES?", in: "Schneier on Security", https://www.schneier.com/blog/archives/2012/03/can_the_nsa_bre.html, 22.03.2012 

NSA Code Names

Offensichtlich hat die NSA noch ein paar weiter Überwachungsprogramme am Laufen, zumindest wenn man sich LinkedIn-Profile wie [1] anschaut:"
Skilled in the use of several Intelligence tools and resources: ANCHORY, AMHS, NUCLEON, TRAFFICTHIEF, ARCMAP, SIGNAV, COASTLINE, DISHFIRE, FASTSCOPE, OCTAVE/CONTRAOCTAVE, PINWALE, UTT, WEBCANDID, MICHIGAN, PLUS, ASSOCIATION, MAINWAY, FASCIA, OCTSKYWARD, INTELINK, METRICS, BANYAN, MARINA


oder [7]:
"
 Frequently input data into data processing systems to include; Analyst Notebook, Excel, PowerPoint, Microsoft Word, QueryTree, ArcGis, ArcView, SharkFinn, Gold Miner, Anchory, Maui, Octave, Pathfinder, PINWALE, Global Reach, Association, Fascia, and Dishfire.
"

Es fällt jedoch auf, dass PRISM nicht auftaucht. Nicht alle der Abkürzungen stehen für spezielle NSA Programme. Manche der Tools sind sogar öffentlich verfügbar. Trotzdem ist interessant, um welche Programme es sich handelt. Ein paar der Tools, Datenbanken oder Programmen konnte ich identifizieren:

ANCHORY ist eine Datenbank der NSA für von SIGINT (Signals Intelligence) abgeleitet Daten [3].

AMHS steht für Automatic Message Handling System [2] und bezeichnet das NSA-interne Nachrichtensystem.

NUCLEON ist eine Datenbank für abgehörte Inhalte von Kommunikationsvorgängen, z.B. von Telefongesprächen oder E-Mails [4].

TRAFFICTHIEF ist Teil des Turbulence Programms [5]. Ziel von Turbulence ist es Social networks und abgefangene Kommunikation in Beziehung zu bringen, Verkehr in Netzwerken abzuzweigen und nach Suchmustern in hunderten von NSA Datenbanken zu suchen.

ARCMAP - Programm zur Beabreitung von Geodaten [6]

SIGNAV - ???

COASTLINE ist laut [8] ein Data Mining, Netzwerkanalyse oder Social Network Analyse Werkzeug.

DISHFIRE ist laut [8] ein Data Mining, Netzwerkanalyse oder Social Network Analyse Werkzeug.

FASTSCOPE ist laut [8] ein Data Mining, Netzwerkanalyse oder Social Network Analyse Werkzeug.

OCTAVE/CONTRAOCTAVE ist laut [8] ein Data Mining, Netzwerkanalyse oder Social Network Analyse Werkzeug.

PINWALE ist laut [8] ein Data Mining, Netzwerkanalyse oder Social Network Analyse Werkzeug.

UTT - ???

WEBCANDID - ???

MICHIGAN - ???

PLUS -???

ASSOCIATION - ???

MAINWAY ist laut [8] ein Data Mining, Netzwerkanalyse oder Social Network Analyse Werkzeug.

FASCIA - ???

OCTSKYWARD - ???

INTELINK ist laut [8] ein Data Mining, Netzwerkanalyse oder Social Network Analyse Werkzeug.

METRICS - ???

BANYAN - ???

MARINA ist laut [8] ein Data Mining, Netzwerkanalyse oder Social Network Analyse Werkzeug.

Für weitere Hinweise bin ich sehr dankbar! 

 
---
Über den Autor:

Der Autor, Prof. Dr.-Ing. Hans-Joachim Hof, ist Professor für Sichere Softwaresysteme an der Hochschule München. Dort leitet er die Munich IT Security Research Group (MuSe). Die Forschungsarbeiten der MuSe umfassen folgende Themen: Softwaresicherheit, IT Security, Cyber Crime Defense, Web Applications und Web Application Security, Netzwerksicherheit (unter anderem: Sicherheit für Cyber Physical Systems, Sicherheit für Sensornetze), Intrusion Detection sowie Usability von Verfahren der IT Security. Prof. Hof leitet an der Hochschule München die Zusatzausbildung "Betrieblicher Datenschutz".
--
Bitte folgendermaßen zitieren:

Hans-Joachim Hof, "NSA Code Names", in: "Wer lauscht? Ein Blog über staatliche Überwachungsmaßnahmen wie PRISM und Co", werlauscht.blogspot.de, 15.07.2013
---

Verwendete Quellen:
[1] http://www.linkedin.com/pub/jason-miller/39/741/a49
[2] FAS Intelligence Resource Program, "DODIIS AMHS", http://www.fas.org/irp/program/disseminate/amhs.htm, 26.01.2000
[3] FAS Intelligence Resource Program, "ANCHORY", http://www.fas.org/irp/program/disseminate/anchory.htm
[4] Washington Post, "U.S. surveillance architecture includes collection of revealing Internet, phone metadata", http://www.washingtonpost.com/investigations/us-surveillance-architecture-includes-collection-of-revealing-internet-phone-metadata/2013/06/15/e9bf004a-d511-11e2-b05f-3ea3f0e7bb5a_print.html, 16.06.2013
[5] Siobhan Gorman, "Costly NSA initiative has a shaky takeoff", http://articles.baltimoresun.com/2007-02-11/news/0702110034_1_turbulence-cyberspace-nsa/2  ,11.02.2007
[6] Wikipedia, "ArcMap", http://en.wikipedia.org/wiki/ArcMap 
[7] http://www.linkedin.com/pub/jonathan-garrett/48/77a/38
[8] James Bamford, "The Shadow Factory: The Ultra-Secret NSA from 9/11 to the Eavesdropping on America", Random House LLC, 14.10.2008

Montag, 15. Juli 2013

Die Rechenzentren der NSA

Der letzte Post beschreibt die Kosten und den Raumbedarf für die Speicherung von Handy-Gesprächen aus Deutschland [1]. Aus den Größenordnungen wird klar, dass das NSA über entsprechende Speicher- und Rechenkapazitäten verfügen muss. Basierend auf der Auslegung der Rechenzentren sind wiederum Rückschlüsse auf den Umfang der Überwachungsprogrammen möglich.

Wired berichtet im März 2013 über den Bau eines der NSA-Rechenzentrums in Bluffdale, Utah, USA [2]. Das Rechenzentrum befindet sich in der Nähe der Beef Hollow Road, auf Google Maps ist die Baustelle des Rechenzentrums zu sehen [5], angegeben ist "Utah Data Center". Als Größe gibt Wired die fünffache Größe des US Capitol an. Das Rechenzentrum dient dem Abfangen, Entschlüsseln, Analysieren und Speichern von weltweit erfassten Kommunikationsdaten (über Satellit oder Unterwasserkabel übertragen). Ein weiterer Schwerpunkt des Rechenzentrums wird auf dem Brechen von Verschlüsselungen liegen. Laut [2] berichten NSA-Kreise, dass es in den letzten Jahren bedeutende Durchbrüche in der Cryptoanalyse gab. Es ist davon auszugehen, dass die NSA auch verschlüsselte Kommunikation abhören kann. Das Rechenzentrum soll im September 2013 in Betrieb gehen, ca $2 Mrd kosten und eine Fläche von 93.000 m^2 einnehmen.


Laut dem Plan des Geländes sind 9300 m^2 (in vier Gebäuden) für Server vorgesehen. Unter Berücksichtigung der Zahlen aus [1] beträgt die maximale Datenspeicherkapazität 6,2 Exabyte (=6.200.000 TB). Die Anlage kann mindestens 3 Tage mit Notstrom versorgt werden um den Betrieb des Rechenzentrums aufrecht zu erhalten. Der vermutete Stromverbrauch liegt bei 65 Megawatt. Der Strombedarf deutet auf eine maximale Speicherkapazität von 13 Exabyte hin, also in einer ähnlichen Größenordnung wie nach Flächenbedarf zu erwarten. Für Strom werden Kosten von $40 Mio veranschlagt. Die maximale Datenspeicherkapazität bezieht sich auf die Anzahl der für den schnellen Zugriff vorgehaltenen Daten. Daten die auf Magnetbänder ausgelagert werden benötigten zur Speicherung keinen Strom und sind deshalb nicht berücksichtigt. Die Lagerung auf Magnetbändern kann z.B. dann von Interesse sein, wenn kryptographisch stark geschützte Daten für einen längeren Zeitraum aufgehoben werden sollen mit der Hoffnung, die entsprechende Verschlüsselung in der Zukunft brechen zu können. Der Spiegel gibt als Speicherkapazität ein Yottabyte (=1 Billion Terabyte) an [4], was anhand der Rechung oben jedoch zweifelhaft erscheint, so nicht ein Großteil der Daten nicht ständig zur Verfügung steht.

Neben der Speicherfrage stellt sich die Frage, wie die NSA Daten erhebt. Laut Aussage von William Binney, Senior NSA Crypto-Mathematiker, werden die Daten an zentralen Datenaustauschpunkten abgezweigt, von denen es nach Aussage von Binney 10-20 geben soll [2]. Ein Raum mit Abhörtechik im AT&T Building in San Francisco wurde 2006 durch einen Whistle Blower bekannt. Neben den Landverbindungen werden aber auch die Satelliten-Empfänger abgehört, z.B. in Roaring Creek und Salt Creek. In Roaring Creek sind drei Satellitenschüsseln im Einsatz, die meisten Satellitenverbindungen zwischen Europa und den USA und zwischen den USA und dem nahen Osten abhören können. Eine ähnliche Anlage findet sich in Arbuckle, California. Die Station in Salt Creek überwacht die Kommunikation im Pazifik und in Asien. Binney schied bereits 2001 aus der NSA aus, es ist damit zu rechnen, dass sich die Fähigkeiten der NSA in der Zwischenzeit deutlich weiterentwickelt haben.

Es stellt sich die Frage, wie gut die NSA auf wachsenden Internet-Verkehr eingestellt ist. Über die Entwicklung des Netzwerkverkehrs berichtet CISCO [3]: Bis zum Jahr 2015 wird erwartet, dass der weltweite IP-Verkehr die Grenze von 1,0 Zettabyte pro Jahr überschreitet (1 Zettabyte=1.000 Extabyte=1.000.000 Petabyte=1.000.000.000 TB), 2017 wird mit 1,4 Zettabyte pro Jahr gerechnet. Jedoch sind große Teile dieser Kommunikation für die NSA nicht von Interesse. Die übermittelten Inhalte von Videostreaming (z.B. Web TV, Video on Demand) oder Audiostreaming (z.B. Webradio, Podcasts) sind für die NSA wahrscheinlich nicht von Interesse, allenfalls Metadaten könnten interessant sein. Von Interesse für die NSA sind insbesondere Daten des Deep Web, die für die Öffentlichkeit nicht zugänglich sind.

Zum Anteil des uninteressanten Netzwerkverkehrs einige Informationen aus dem CISCO-Report:
  •  51% des Internetverkehrs werden 2017 durch Content Delivery Networks zur Verfügung gestellt werden. Da es sich um Verteildienste handelt ist anzunehmen, dass der Inhalt für die NSA nicht von Interesse ist.
  • Videodaten werden 2017 13,8 Petabyte/5 Minuten stellen.
  • 2017 wird Consumer Video Traffic 69 Prozent allen Consumer Internet Traffics einnnehmen. Consumer Video Traffic beinhaltet nicht P2P File Sharing. 
  • 2017 wird die Summe allen Videoverkehrs 80-90 Prozent des globealen Consumer Interenet Traffics einnehmen.
Aus den Daten lässt sich schließen, dass ca. 140 Extabyte an Nicht-Video-Internetverkehr im Jahr 2017 pro Jahr zu erwarten sind, pro Tag also 383 PB.



---
Über den Autor:

Der Autor, Prof. Dr.-Ing. Hans-Joachim Hof, ist Professor für Sichere Softwaresysteme an der Hochschule München. Dort leitet er die Munich IT Security Research Group (MuSe). Die Forschungsarbeiten der MuSe umfassen folgende Themen: Softwaresicherheit, IT Security, Cyber Crime Defense, Web Applications und Web Application Security, Netzwerksicherheit (unter anderem: Sicherheit für Cyber Physical Systems, Sicherheit für Sensornetze), Intrusion Detection sowie Usability von Verfahren der IT Security. Prof. Hof leitet an der Hochschule München die Zusatzausbildung "Betrieblicher Datenschutz".
--
Bitte folgendermaßen zitieren:

Hans-Joachim Hof, "Die Rechenzentren der NSA", in: "Wer lauscht? Ein Blog über staatliche Überwachungsmaßnahmen wie PRISM und Co", werlauscht.blogspot.de, 15.07.2013
---

Verwendete Quellen:

[1] Hans-Joachim Hof, "Telefonüberwachung durch die NSA", in: "Wer lauscht? Ein Blog über staatliche Überwachungsmaßnahmen wie PRISM und Co", werlauscht.blogspot.de, 15.07.2013

[2] Wired, "The NSA is Building Country's Biggest Spy Center (Watch What You Say), http://www.wired.com/threatlevel/2012/03/ff_nsadatacenter/all/, 15.03.2012 

[3] Cisco, "Cisco Visual Networking INdex: Forecast and Methodology, 2012-2017", http://www.cisco.com/en/US/solutions/collateral/ns341/ns525/ns537/ns705/ns827/white_paper_c11-481360_ns827_Networking_Solutions_White_Paper.html, 29.05.2013

[4] Frank Patalong, "Daten-Überwachungszentrum in Utah: Festung der Cyberspione", http://www.spiegel.de/netzwelt/netzpolitik/bluffdale-das-datensammel-zentrum-der-nsa-a-904355.html, 08.06.2013

[5] http://goo.gl/maps/v6xoO

Telefonüberwachung durch die NSA

Bei der Überwachung von Telefonen ist zu unterscheiden zwischen der Speicherung von Metadaten von Anrufen (d.h. grob gesagt "wer telefoniert mit wem" und "wo befinden sich diese Personen") und der Speicherung der eigentlichen Inhalte eines Telefongesprächs.

Nach Aussage von Bruce Schneier hat General Alexander im Kongress ausgesagt, dass die NSA den Inhalt von Telefongesprächen aufzeichen kann und auch die technischen Kapazitäten dazu hat [1].
Die für die Aufzeichnung von Voice Over IP Kommunikation notwendige Bandbreite richtet sich nach dem verwendeten Codec. Die Telekom setzt z.B. seit kurzem den Codec ITU-T G.711 ein [2]. Die Datenrate beträgt bei diesem Codec 64 kBit/s. Um ein zehnminütiges Gespräch zu speichern sind damit mindestens 4,58 MB Speicherplatz notwendig. Laut Bitkom wurde im Jahr 2011 in Deutschland fast 3,2 Mrd Stunden per Handy telefoniert [4]. Zur Speicherung der Handy-Gespräche würden fast 84000 TB an Daten anfallen. Dieser Speicheraufwand kann reduziert werden durch:
  • Verlustbehaftete erneute Kompression durch einen optimierten Codec (eventuell unter Verschlechterung der Sprachqualität).
  • Spracherkennung des Telefonats und lediglich Speicherung des erkannten Texts.
Beide Methoden sind mit erheblichem Rechenaufwand verbunden und müssten in Echtzeit durchgeführt werden, da ständig neue Daten erfasst werden. Die zweite Methode hätten den Vorteil die Telefongespräche verschlagworten zu können und im Inhalt von Telefongesprächen suchen zu können.

In [6] werden die Kosten für die Speicherung eines PB (=1000TB) mit $100.000/Jahr angegeben sowie der Energieverbrauch pro Jahr für ein PB mit 5 Kilowatt. Für ein PB werden 1,5 m^2 an Platz benötigt. Der Strompreis wird mit $0,15 (in Kalifornien) pro Kilowattstunde angegeben. Die Kosten der Speicherung aller deutschen Handy-Gespräche eines Jahres würde also ca. 9 Mio US-Dollar kosten. Ein Raum mit 126 m^2 wäre notwendig.

Es gibt Hinweise, dass die NSA Telefongespräche in den USA aufzeichnet [5]. Laut diesem Bericht ist in den USA für eine Aufzeichnung nicht einmal ein richterlicher Beschluss notwendig, es genügt die Anordnung eines Analysten. Die gleiche rechtliche Grundlage gilt auch für Internetkommunikation, so dass es sehr wahrscheinlich ist, dass auch hier bei Bedarf der Inhalt gespeichert werden kann. Wenn schon die Daten in den USA aufgezeichnet werden ist es sehr wahrscheinlich, dass diese Aufzeichnung auch außerhalb der USA geschieht. Laut dem Bericht von CNET verfügen die NSA über die Möglichkeit nahezu alle Telefongespräche der USA und auch internationalen Ursprungs abzuhören. Laut dem ehemaligen Technischen Direktor der NSA, William Binney, stehen 500.000 bis 1.000.000 Personen auf einer Target List. Die entsprechenden Gesprächsinhalte werden aufgezeichnet. Analog zur Rechnung oben und unter der Annahme, dass diese Personen ähnlich wie der durchschnittliche Deutsche 45 Stunden im Jahr telefonieren (siehe [4]) beträgt die aufzuzeichnende Datenmenge pro Jahr damit bis zu 1180 TB.




---
Über den Autor:

Der Autor, Prof. Dr.-Ing. Hans-Joachim Hof, ist Professor für Sichere Softwaresysteme an der Hochschule München. Dort leitet er die Munich IT Security Research Group (MuSe). Die Forschungsarbeiten der MuSe umfassen folgende Themen: Softwaresicherheit, IT Security, Cyber Crime Defense, Web Applications und Web Application Security, Netzwerksicherheit (unter anderem: Sicherheit für Cyber Physical Systems, Sicherheit für Sensornetze), Intrusion Detection sowie Usability von Verfahren der IT Security. Prof. Hof leitet an der Hochschule München die Zusatzausbildung "Betrieblicher Datenschutz".
--
Bitte folgendermaßen zitieren:

Hans-Joachim Hof, "Telefonüberwachung durch die NSA", in: "Wer lauscht? Ein Blog über staatliche Überwachungsmaßnahmen wie PRISM und Co", werlauscht.blogspot.de, 15.07.2013
---

Verwendete Quellen:

[1] Bruce Schneier, "Evidence that the NSA Is Storing Voice Content, Not Just Metdadata", in: CRYPTO-GRAM, 15.07.2013
[2] Heise Newsticker, "Telekom beginnt mit Umstellung herkömmlicher Telefonanschlüsse",  http://www.heise.de/newsticker/meldung/Telekom-beginnt-mit-Umstellung-herkoemmlicher-Telefonanschluesse-auf-VoIP-1807580.html, 21.02.2013
[3] ITU-T, " Pulse Code Modulation (PCM) of Voice Frequencies - ITU-T Recommendation G.711", 1993
[4] Bitkom, "5 Prozent mehr Handygespräche",  http://www.bitkom.org/de/presse/74532_72960.aspx, 31.07.2012
[5] CNET, "NSA spying flap extends to contents of U.S. phone calls", http://news.cnet.com/8301-13578_3-57589495-38/nsa-spying-flap-extends-to-contents-of-u.s-phone-calls/ , 15.06.2013
[6] Brester Kahle, "Costs to Store All US Phonecalls Made in a Year so it Could be Datamined", https://docs.google.com/spreadsheet/ccc?key=0AuqlWHQKlooOdGJrSzhBVnh0WGlzWHpCZFNVcURkX0E#gid=0 , 2013

 

Sinn und Zweck dieses Blogs

Herzlich willkommen zum Blog "Wer lauscht? Ein Blog über staatliche Überwachungsmaßnahmen wie PRISM und Co".

Die aktuellen Enthüllungen über PRISM und andere Überwachungsprogramme haben gezeigt, wie weitreichend die Geheimdienste fremder Staaten elektronische Kommunikation in Deutschland überwachen. Ziel dieses Blogs ist es, den aktuellen Stand der staatlichen Überwachung in Deutschland in deutscher Sprache zu dokumentieren und technisch einzuordnen. Gerade die technische Einordung durch Fachleute, nicht Journalisten, kommt in der aktuellen Berichterstattung zu kurz. Außerdem sollen in diesem Blog die gesellschaftlichen und wirtschaftlichen Auswirkungen staatlicher Überwachung betrachtet werden.

Der Autor, Prof. Dr.-Ing. Hans-Joachim Hof, ist Professor für Sichere Softwaresysteme an der Hochschule München. Dort leitet er die Munich IT Security Research Group (MuSe). Die Forschungsarbeiten der MuSe umfassen folgende Themen: Softwaresicherheit, IT Security, Cyber Crime Defense, Web Applications und Web Application Security, Netzwerksicherheit (unter anderem: Sicherheit für Cyber Physical Systems, Sicherheit für Sensornetze), Intrusion Detection sowie Usability von Verfahren der IT Security. Prof. Hof leitet an der Hochschule München die Zusatzausbildung "Betrieblicher Datenschutz".

Mehr Informationen sowie Kontaktdaten finden Sie unter http://www.sensornetze.de sowie http://w3-o.cs.hm.edu/~hof/.