136 private links
Publicly accessible databases are an indispensable resource for retrieving up to date infor- mation. But they also pose a significant risk to the privacy of the user, since a curious database operator can follow the user’s queries and infer what the user is after. Indeed, in cases where the users’ intentions are to be kept secret, users are often cautious about accessing the database. It can be shown that when accessing a single database, to completely guarantee the privacy of the user, the whole database should be down-loaded; namely n bits should be communicated (where n is the number of bits in the database). In this work, we investigate whether by replicating the database, more efficient solutions to the private retrieval problem can be obtained. We describe schemes that enable a user to access k replicated copies of a database ( k ≥ 2) and privately retrieve information stored in the database. This means that each individual server (holding a replicated copy of the database) gets no information on the identity of the item retrieved by the user. Our schemes use the replication to gain substantial saving. In particular, we present a two-server scheme with communication complexity O ( n 1 / 3).
This paper provides a short survey on transparency tools for
privacy purposes. It defines the term transparency tools, argues why they
are important and gives examples for transparency tools. A classification
of transparency tools is suggested and some example tools are analyzed
with the help of the classification
Die Arbeit mit Schutzzielen hat sich grundsätzlich bewährt. Sie sind so formuliert, dass sie
die Anforderungen an technische und organisatorische Systeme sowohl abstrakt über
blickbar als auch in Form von Maßnahmen hinreichend konkret faßbar machen. Der
Beitrag empfiehlt, sie in Datenschutzgesetze und Verträge aufzunehmen, als Leitlinien für
den Entwurf und Betrieb von IT-Infrastrukturen heranzuziehen und in Mechanismen
transformiert als WebService-Policies auszudrücken – und unterbreitet einen
Strukturierungsvorschlag.
Kontrolle durch die Nutzenden beim Verwalten ihrer
digitalen Identitäten
Die Nutzenden sollen so detailliert wie möglich ste
uern können, wem sie welche Daten
unter welchen Bedingungen herausgeben. Das kann je
nach Kommunikationspartner
völlig unterschiedlich sein. Im Arbeitskontext verh
alten sich Nutzende beispielsweise
meist anders als in ihrer Freizeit. Bedingung ist e
in hohes Maß an Transparenz in Bezug
auf die personenbezogenen Daten und ihre Verarbeitu
ng. Wenn Nutzende keine
Wahlmöglichkeiten haben (z.B. in vielen E-Governmen
t-Prozessen, in denen gesetzlich
vorgegeben ist, welche Daten zu nennen sind), solle
n sie zumindest wissen können, was
mit ihren Daten geschieht. Einige nutzergesteuerte
Identitätsmanagementansätze
unterstützen die nötige Transparenz wesentlich, ind
em transaktionsbezogen protokolliert
wird, welche Daten herausgegeben wurden. Diese Prot
okollierung ermöglicht den
Nutzenden ein späteres Nachvollziehen, wem sie was
unter welchen Bedingungen
offenbart haben. Auch Datenschutzerklärungen einer
datenverarbeitenden Stelle lassen
sich hier mitspeichern.
Separierung unterschiedlicher Bereiche
Die Datensparsamkeit wird auch unterstützt durch di
e Separierung von Kontexten, d.h.
die Trennung von Daten in verschiedenen Domänen. Zi
el ist die Kontrolle einer
möglichen Verkettung von Informationen über verschi
edene Bereiche hinweg. Das
Grundkonzept wurde bereits Mitte der 1990er Jahre v
on John Borking im Rahmen des
von ihn skizzierten
„Identity Protectors“ vorgeschlagen (Borking, 1996;
Hes/Borking, 1998): Logisch
trennbare Bereiche werden auch technisch separiert,
z.B. indem Kennungen und
Identifikatoren nicht mit globaler Gültigkeit (und
globaler Verkettbarkeit) verwendet
werden, sondern unterschiedliche Bezeichner pro Ber
eich eingesetzt werden. Diese
Bereiche kann man als verschiedene „Pseudonym Domai
ns“ (ULD/SNG, 2003)
verstehen, in denen Bezeichner („Pseudonyme“ im all
gemeinen Sinn) lokale Gültigkeit
haben. Sie können Schnittstellen zueinander haben,
an denen in vordefinierten Fällen
Bezeichner durch technische oder organisatorische M
aßnahmen umgerechnet werden
können. Auf diese Weise lassen sich Workflows gener
ell daraufhin analysieren, wo sich
Aufgabenbereiche und zugehörige personenbezogene Da
ten voneinander abgrenzen
lassen.
The open-source Shibboleth System extends Web-based applications and identity
management for secure access to resources among multiple organizations
Künftig müssen Angreifer damit rechnen, von heimischen Soldaten aktiv bekämpft zu werden. "Derzeit wird analysiert, welche Maßnahmen im Falle von Angriffen gesetzt werden können, um einen solchen abzuwehren beziehungsweise ins Leere laufen zu lassen und damit den Schaden klein halten zu können", heißt es dazu auf STANDARD-Anfrage.
Zuständig für den Cyberkampf ist das Cyber Defence Center (CDC), das vom Abwehramt, dem Inlandsgeheimdienst des Bundesheeres, geleitet wird. Dafür bekommt es in den kommenden drei Jahren bis zu 350 zusätzliche Mitarbeiter und 46 Millionen Euro für den Kauf neuer Hard- und Software. Denkbar ist, dass sich das Heer auch sogenannte "Zero Day Exploits" zulegt.
Ergänzend forciert Verteidigungsminister Hans Peter Doskozil (SPÖ) die Zusammenarbeit mit Firmen und staatlichen Stellen in Israel, die er als "Wissenstransfer mit Gleichgesinnten" bezeichnet - derstandard.at/2000051609794/Das-Bundesheer-zieht-in-den-Cyberwar
The following package is meant to provide an easy way to regularly measure your internet connection speed and create some stats. You can easily set up this script on a raspberry pi with raspbian and keep it running in the background.
The data can be used to confront your ISP if your speed is way below the promised speed.
For setting up the machine you need a linux machine because ansible does not run on windows.
Dieses Projekt bietet eine Übersicht, ob Domains deutscher Behörden das HTTPS-Protokoll (https://) unterstützen, und - falls ja - wie stark diese Unterstützung ist.
Entstanden am OpenDataDay 2016. Domains aus dem german-gov-domains-Datensatz.
Basierend auf the pulse of the federal .gov webspace (pulse.cio.gov) von 18F/General Services Administration.
An incomplete listing of german government domains (and the code for the scraper used to build the list).
You can download the list as a .csv file or view it with github's pretty formatting.
We try to use the same format as the US GSA (example), so the CSV file has a header of Domain Name,Domain Type,Agency,City,State and currently contains government agencies and cities.