News archive

Living Labs

 

21 April 2017

 

Volkskrant: Big Data - Waarom camera’s en sensoren geen oplossing zijn

 

In een column van Toine Heijmans in de Volkskrant wordt PIlab Member Masa Galic geinterviewd:

 

"De straat is vijftig cafés, tien snackbars en twee coffeeshops lang en ergens ziet iemand ons lopen. Misschien vallen we op, kijken we te lang naar de bolcamera’s en kabelbundels die op de lantaarnpalen zijn gebonden. Naar de minuscule schotels, de sensoren. De warmte die we verspreiden, het geluid dat we maken – als Maša nu gaat gillen zetten digitale receptoren haar geluid om in angst en kan iemand daar ergens gevolg aan geven. Niets blijft meer onopgemerkt. Maša Galic is een Sloveense juriste die in Tilburg promoveert op de vertechnisering van het Stratumseind, de uitgaansbaan in Eindhoven. Na drie jaar is ze haar verbazing nauwelijks te boven. Wat hier gebeurt, zegt ze, gebeurt met de beste bedoelingen. Iedereen wil een fijne straat. Dat moet ik echt opschrijven. Maar de apparatuur die de engte nu omheint is zo invasief, dat het de menselijke onafhankelijkheid raakt. De vraag is of dat opweegt tegen het resultaat. Het Stratumseind (‘als je daar naartoe gaat is de kans groot da ge op oew bakkes wor geslagen’ – Theo Maassen) is een levend laboratorium

geworden. Living lab is het modewoord dat ambtenaren en hun commerciële partners graag gebruiken: ‘smart city’, ‘city pulse’. In hyperconnected Eindhoven uiteraard.

 

Iedereen die hier loopt,doet ongevraagd mee aan het experiment. Er hangen geen waarschuwingsborden; mensen moeten puur zijn om mee te experimenteren. Maar dit is geen laboratorium, zegt Maša: wij zijn hier, het is een publieke plek. ‘Niemand heeft toestemming gegeven voor deelname.’ Omwille van veiligheid en gezelligheid is alles meetbaar gemaakt: het geluid, de temperatuur, de bezettingsgraad van de parkeergarages. Machinelearning-processen filteren Twitterberichten op sentiment en dreiging. Bovenin de lantaarnpalen zijn stalen schoenendozen gemonteerd met ledlampen die de gemoedstoestand van de massa beïnvloeden. Als ik Maša nu een mep verkoop, of woest ga zoenen, is dat onwenselijk gedrag? Gaan we het nu niet hebben over privacy, want dan haalt iedereen z’n schouders op. Wie niets te verbergen heeft, heeft niets te vrezen – dat is het antwoord als ik er hier naar vraag. Het verkeerde antwoord, zegt Maša: ‘We hebben allemaal wat te verbergen, we doen doorlopend dingen fout.’ Maar ze zegt ook iets anders.

 

Haar fascineert de omgang met de publieke ruimte, en wat daar nog mogelijk is. Er moet een plek zijn, zegt Maša, waar je dronken kunt worden en kunt vechten, al-leen al om te begrijpen dat het niet handig is. Een plek voor afwijkend gedrag. ‘Vroeger had je een paar agenten die beperkt waren in wat ze konden zien. Nu is alles mogelijk. De vraag is hoe ver je wil gaan met reguleren.’ De intelligente straatverlichting past zich aan bij ongeregeldheden – maar wie bepaalt wat ongeregeld is? Slimme sensoren zijn dom, er zijn mensen nodig om ze te coderen. Codeer maar eens het geluid van agressie, ‘dat wordt nu gedefinieerd als een hoge menselijke stem met een sterke intensiteit’, zegt Maša – maar agressie kan ook anders klinken. Blaffende honden. Een zacht uitgesproken dreigement. ‘Het zijn keuzen gemaakt op basis van wat we geloven dat agressie is.’

 

De wethouder, Staf Depla, schreef een brief aan het kabinet omdat hij ‘spelregels en principes’ wil voor het verzamelen van big data zoals in Stratumseind. Want die zijn er niet. Beetje laat. Het ontbreken van wetgeving, zegt Maša, maakt een levend laboratorium interessant voor commerciële bedrijven die graag gratis meewerken. ‘Zij maken de dienst uit.’ Ze zetten standaardgedrag om in algoritmen, waarmee ze bepalen wat normaal is en wat abnormaal. ‘Eerst een goede studie doen en dan pas beginnen met een experiment lijkt me verstandiger dan andersom.’ Een mens gedraagt zich naar de omstandigheden: wij weten dat hier camera’s hangen en passen ons aan. Wij zijn niet langer naturel. Dat wordt in de wetenschap het chilling effect genoemd: ‘Als ik weet dat ik word geobserveerd, disciplineer ik mezelf’. Best handig, zeg ik, in een straat beroemd om zijn vechtpartijen. ‘Klopt’, zegt Maša. ‘Maar als straks overál camera’s hangen, kun je niet meer autonoom zijn. Dan is er geen plek meer voor outsiders. Je krijgt dan een samenleving met mensen die zich anders voordoen dan ze zijn.’

 

Misschien slaan ze niemand meer op hun bakkes, onder de technologische hemel van Stratumseind. Dan slaan ze iemand ergens anders op hun bakkes. ‘Dit zijn sociale problemen’, zegt Maša. ‘Geen enkele technologie zal de diepe wortels van sociale problemen oplossen.’ "

Open brief aan Tweede Kamer over onvoldoende waarborgen in nieuwe nationale veiligheidswet

 

13 December 2016

 

Bart Jacobs, Mireille Hildebrandt, Ronald Leenes en Jaap-Henk Hoepman zijn mede-ondertekenaar van de open brief aan de Tweede Kamer over onvoldoende waarborgen in nieuwe nationale veiligheidswet. Dit mede naar aanleiding van onze Privacy Impact Assessment van de Wet op de inlichtingen- en veiligheidsdiensten (die ook in de brief genoemd wordt).

 

https://www.ivir.nl/nl/onvoldoende-waarborgen-in-nieuwe-nationale-veiligheidswet/

Light at the digital shadow – report of the expert group Big data and privacy

 

19 October 2016

 

The expert group Big data and Privacy has recently offered its report to the minister of Economic Affairs. The PI.lab has delivered an active contribution to the report. Mireille Hildebrand (Digital security, Radboud University) and Ronald Leenes (TILT, Tilburg University) participated to the expert group. Marc van Lieshout, assisted by Somayeh Djafari (both Strategy & Policy, TNO) acted as secretary for the expert group. Chair of the expert group was Jeroen van den Hoven, professor at the Technical University Delft (Applied ethics).

 

Participants were selected in order to cover academia, industry and relevant branch organisations. A broad selection with different backgrounds and interests. The request of the minister, on the basis of a request of Dutch Parliament, was to advice on the reconciliation of privacy (fundamental rights) with big data innovations, and to come with practical suggestions how to cope with the apparent dilemma, also in the light of the adoption of the General Data Protection Regulation.

 

The expert group adopts the reality of the GDPR. It concludes that there are no obvious reasons to challenge the GDPR as legal framework covering big data innovations. This view is unanimously shared. As a consequence, it also assumes that a change in perspective regarding the role of fundamental rights such as privacy in the societal debate on innovation is needed. Contrary to perceiving privacy as a threat towards innovation, the expert group unanimously adopts the position that the strive to have both privacy and innovation should be seen as an enabler for innovation. This might imply that specific forms of innovation will become prohibited, due to their implications on fundamental rights. But other forms of innovation will be promoted, since these capture the interests of the innovator and the public at large simultaneously. As such, and as a third pillar, the expert group considers privacy and fundamental rights not only to be of relevance for individuals but to be a societal value as well. This implies that a society that lacks adequate means for the promotion of privacy and other fundamental rights, is in danger of losing legitimacy towards its citizens and may contribute to promoting distrust with negative consequences for the economic viability

of, in this case, big data innovations.

 

The expert group makes a clear reference to what happened with the greening of industry. Started in the eighties and nineties of the past century (with its roots in the sixties and seventies), a transformation with respect to the relevance of offering sustainable products and production methods can be clearly noticed: sustainability has turned from a differentiator towards an indispensable feature for industry today. The expert group formulates the vision that the responsible processing of personal data will follow a similar track.

 

The slogan of the expert group can thus be summarized as the ‘call for a responsible processing of personal data’. During the past year, the expert group has organized various meetings with a large variety of stakeholders. These meetings revealed that many parties are still in a very early stage of ‘privacy maturity’, and requested support in order to achieve a higher maturity level. The expert group does not deny that there is an obvious tension between today’s data driven innovations, especially in combination with advanced machine learning strategies and artificial intelligence tools, and basic requirements for the protection of

persons with respect to the processing of their data. The legal obligation to determine a goal for the processing of personal data at least at the moment of collecting the data can be very problematic when data have been collected for one situation and will be exploited in another situation by means of machine learning algorithms. In the latter situation it may be unclear whether the analysis will reveal useful results and for what precise purposes the results will be used. The expert group concludes that – notwithstanding the typical problems these situations are faced with – a responsible processing implies a careful design of the data processing approach. In its recommendations the expert group makes an urgent call to the supervisory authorities to organize a regulatory sandbox that might help organisations in exploring opportunities for interesting new services while respecting rights of data subjects.

 

The overview the expert group presents on tools and methods that already are available to support responsible processing of personal data covers organizational, technological and legal tools. Many tools exist, but are neither well-known nor well-explored and require further elaboration. Technological innovations are needed to offer alternatives for existing practices. These need to cover the entire breadth of data processing activities, including identity and access management techniques, novel encryption techniques and standardized tools covering privacy by design strategies and patterns next to novel approaches to develop privacy respecting data analytics. Clearly issues related to research performed within the PI.lab!

 

Finally, there is a need for a further exploration of the potential implications of advanced data analytics on issues such as unfair treatment, discrimination, stigmatization and exclusion. Attention for this topic is growing. Algorithmic complexity and biased data samples may lead to undesired and unexpected outcomes that are hard to repair. The obligation to be able to explain the logic of a decision could freeze specific developments if it shows it is impossible to do so. The expert group pleads for new research in this field.

 

The report is available (in Dutch only), click here.

 

Marc van Lieshout

Mireille Hildebrandt on Data Driven Intelligence and Data Protection Law at the International Conference of Data Protection & Privacy Commissioners (ICDPPC)

 

October 19th, 2016

 

Mireille Hildebrandt was one of the panelist of a closed session at the International Conference of Data

Protection & Privacy Commissioners conference taking place in Marrakech this week. Her slides are available

on their public site.

 

She used the concept of choice architecture, which derives from nudge theory and behavioural economics, to clarify why we need purpose limitation, highlighting the concepts of bias, opacity and pattern obesitas in

machine learning. Explaining how purposes limitation will indeed save us from data obesitas (think twice

before selecting your training data) and pattern obesitas (garbage in, garbage out, algorithms will always see

patterns but not necessarily those that are relevant).

Interview Mireille Hildebrandt in De Correspondent

 

11 September 2016

 

Onlangs verscheen een interview in De Correspondent met PI.lab hoogleraar Mireille Hildebrandt, over het belang van transparantie, toezicht en handhaving bij data-analyse toepassingen.

Promotie Bart van der Sloot

 

31 June 2017

 

Vrijdag 30 juni j.l. vond de promotie plaats van Bart van der Sloot. Plaats van handeling: de karakteristieke Agnietenkapel van de Universiteit van Amsterdam. De promotoren zijn de hoogleraren Nico van Eijk, directeur van het Instituut voor Informatie Recht (IViR) van de Universiteit van Amsterdam (UvA), en Beate Roessler, hoogleraar aan de faculteit der Geesteswetenschappen van de UvA, met als co-promotor de hoogleraar Natalie Helberger, hoogleraar aan het IViR. Bart is inmiddels werkzaam bij TILT.

 

In zijn lekenpraatje lichtte Bart de kern van zijn proefschrift toe. Hij ziet een probleem in de steeds complexer wordende wereld van big data en de bescherming van privacy daarbinnen. Dat is geen nieuw perspectief. Maar Bart geeft in zijn proefschrift een vernieuwende kijk op dit probleem. Hij constateert dat de regulering van privacy tegengesteld beweegt aan de technische realiteit. De bescherming verschuift van een meer maatschappelijke weging naar een individuele bescherming, de aandacht komt steeds meer op rechten van het individu te liggen terwijl dat voorheen sterker uitging van de plichten van de gegevensverwerkende organisatie, waar voorheen sprake was van intrinsieke beginselen zoals de noodzakelijkheid, effectiviteit en proportionaliteit van maatregelen is nu meer sprake van een extern gemotiveerde belangenafweging, en het is allemaal veel scherper ingekaderd in een juridisch beoordelingskader waar eerder ook andere reguleringsmogelijkheden bestonden. En dat terwijl de wereld van big data zich steeds meer buiten het blikveld van de betrokkene vormt. Mensen zijn beginpunt en sluitstuk van op big data gebaseerde diensten. Dat maakt ook dat ze in de regel weinig directe hinder of schade ondervinden als er iets misgaat. Terwijl de huidige benadering veronderstelt dat organisaties zich voortdurend rekenschap geven van mogelijke hinder of schade.

 

Bart pleit er niet voor om de privacybescherming overboord te zetten, een pleidooi dat ook vaak als reactie te horen valt. Hij zoekt het in een andere richting, de richting van de deugdethiek. De deugdethiek die personen en organisaties ertoe aanzet om naar perfectie in hun handelen te streven. Die perfectie komt terug in minimum voorwaarden waaraan voldaan moet worden en maximum voorwaarden waar naar gestreefd moet worden. In relatie tot privacy en gegevensbescherming zit dit voor de staat in het bieden van transparantie over haar handelen (minimum) en het bieden van zoveel mogelijk vrijheid aan haar burgers (maximum).

 

In zijn proefschrift onderzoekt Bart de deugdethiek binnen de context van de privacybescherming en de regulering van de bescherming van personen met betrekking tot de verwerking van hun gegevens. Hij concludeert dat het niet altijd zinvol is om vast te houden aan het onderscheid tussen persoonsgegevens en andere gegevens als het om de invulling van de voorwaarden gaat, en dat regulering zich uit moet strekken over de analyse, en niet beperkt zou moeten worden tot verzameling en gebruik.

 

De promotiecommissie had waardering voor de aanpak en het resultaat van het onderzoek. De meeste vragen gingen over de daadwerkelijke en concrete uitwerking van het opgestelde deugdenkader in het perspectief van de hedendaagse praktijk. Duidelijk werd dat de rechtsfilosofische insteek in het proefschrift onlosmakelijk verbonden is met een politicologische opvatting over de rol van individuen, instituties en de staat. Waar het proefschrift daar minder helder over is wist de promovendus dat in de gesprekken met de opponenten op een overtuigende manier onder woorden te brengen.

 

Marc van Lieshout

 

P.S. Belangstellenden kunnen een exemplaar van het proefschrift verkrijgen via uitgeverij Intersentia. Bart van der Sloot (2017). Privacy as Virtue – Moving Beyond the Individual in the Age of Big Data, School of Human Rights Series, Vol 81.

The Art of Ethics in the Information Society

 

21 March 2017

 

How do the numerous, and often rather alluring, promises of technology change our perspectives on ethical values? Specialists in the fields of science, art-science, and philosophy of technology share their forward-looking thoughts in this interdisciplinary essay collection. These visions, which provide new perspectives on values in the information society, present a unique view on metaethics and technology.

 

The contributions in this collection re-approach the ethical values of a reality in which the digital is increasingly merging, mostly invisibly, with the world around us. Technologies are often implemented prior to questioning their ethical consequences. We are all users and makers of the information society; therefore it is key to awaken everyone’s imagination concerning ethics and technology. What are the ethical crossroads? The questions that are asked address this issue from multiple angles in order to show you the complexity of the different ethical choices that lay ahead of us. Central in this collection are your life in this rapidly digitalising world, and the matter of how we can shape the future with outlined choices in mind.

 

Can you imagine what your future life would look like if we were to continue implementing (new) technologies in our day-to-day lives at this pace? How do, and can, we shape our world through the possibilities offered by technologies? With the world going digital many questions concerning ethics arise: Will we acquire a perfect memory, and what are the consequences thereof? What will our future judicial system look like? Can computers make ethical decisions for us? Will it be normal to have a (sexual) relationship with a robot or with a digital personal assistant? Do we need to protect and conserve our cultural heritage digitally to ensure that time and war will no longer inflict damages? What role can the technologies that enable mixed reality play in end-of-life discussions? Will Big Data be Big Brother? Will the faith that we put in Big Data lead us to a Dystopia or a Utopia?

 

Knowledge of the future is vital for instigating and inspiring new and creative ideas to improve our lives. To design the ethical fundaments of the information society we need to use a futuristic approach in order to cope with the fast pace of the digital transition. The essayists wish to engage in a personal dialogue about the future with you, both as the user and maker, and it might be a dialogue that is beyond what you can foresee now. This collection can provide you with the knowledge on how you can take part in shaping the digital world. Since the secret to change is to focus all your energy on building the new, they hope to inspire you so that we can start building our future together.

 

Almost every successful person holds two beliefs: the future can be better than the present, and I have the power to make it so. In this endeavour, imagination of the ethical crossroads is a powerful tool; it is the source from which creativity springs. Artists can contribute to the reflections about the digital world and precarious technologies, scientists who look beyond the well-known possibilities can show us the challenges we are heading for, and philosophers with an open-minded reflection can awaken you through questions that we need to ask before technologies are implemented.

 

This collection revolves around you; you are challenged by visual and mental images, questions, and new ideas to reflect on your role during this transitional stage of a world that is moving into a digital era.

 

Do something today that your FUTURE will thank YOU for,

 

Go read this...

 

Liisa Janssens

Kort verslag jaarlijkse PI.lab conferentie

 

13 December 2016

 

Vrijdag 9 december vond de jaarlijkse conferentie van het Privacy & Identity Lab (PI.lab) plaats, dit maal in het sfeervolle Louwman museum in Den Haag. In het PI.lab werken TNO, Radboud Universiteit en Tilburg Institute for Law, Technology and Society (TILT) samen aan het ontwikkelen van oplossingen voor de bescherming van digitale privacy en elektronische identiteiten. De conferentie werd goed bezocht door vertegenwoordigers van kennisinstellingen, ministeries en overheidsorganisaties, bedrijven en NGOs.

 

De eerste keynote werd verzorgd door Paul Nemitz, director Fundamental Rights and Union Citizenship van de Europese Commissie en belangrijkste onderhandelaar van de Algemene Verordening Gegevensbescherming. Hij riep ingenieurs en systeemontwikkelaars op om oplossingen te bedenken om de bescherming van privacy af te dwingen. Niet alleen door het toepassen van privacy by design, maar ook door het ontwikkelen van ‘tech for law’: technologie die helpt om het gebruik van persoonlijke data door systemen te analyseren en te controleren of de wet goed wordt toegepast.

 

De drie PI.lab instituten presenteerden hun laatste inzichten, waaronder een geavanceerde technische oplossing om gegevens te delen in een medische context, met behulp van Polymorfe Encryptie en Pseudonimisering, een oplossing ontwikkeld door de Radboud Universiteit en gepresenteerd door Bart Jacobs (RU). Somayeh Djafari (TNO) presenteerde RESPECT4U, een privacyraamwerk dat organisaties helpt om privacy in de organisatie in te bedden. En Linnet Taylor (TILT) gaf een bevlogen betoog over ethiek van big data als een publiek goed en het risico van een kolonialistische houding als het gaat om de toepassing van big data in de niet-westerse wereld (door westerse organisaties of bedrijven).

 

In twee panels werden de maatschappelijke en wetenschappelijke uitdagingen ten aanzine van privacy en big data verkend. Daarin kwamen zaken als de afbraak van solidariteit, eigendom van data en transparantie van algoritmen aan de orde. Ook werd gesproken over de mogelijkheden van decentrale in plaats van centrale verwerking van persoonlijke data, zoals het intrigerende idee van Arjen de Vries (RU) voor een compleet decentrale zoekmachine.

 

De laatste keynote werd verzorgd door Peter Paul Verbeek, hoogleraar Filosofie van de techniek van de Universiteit Twente. Hij pleitte voor een benadering waarin privacy als algemene waarde in nieuwe systemen en diensten wordt ingebouwd. Dit alles gebaseerd op zijn theorie van “moral mediation” die er naar streeft de impact van technologie op de samenleving op het juiste moment te adresseren.

PI.lab helps evaluate and further develop a board game about privacy

 

31 October 2016

 

The PI.lab was recently approached by artists Janna Ullrich. Her work aims to make complex political topics accessible to a wide audience. She completed a Master’s Degree in Design at the Sandberg Institute in 2015 developing a board game about the European surveillance- and asylum policy.

 

The game confronts the players with fatal consequences of voluntary and

involuntary sharing of their data. In ‘No Man’s Land’ the player realizes that the current struggle of the refugee will soon be his own struggle, the struggle of the ‘algorithmic citizen’. Data controls the access to –or denial of– human rights.

 

Some members of the PI.lab will help evaluate the game and join a brainstorm about additional scenarios of data abuse as well as data protection and how they could be translated into the game.

 

 

For contact, please click here.

PEP Project Receives €760 000 Funding

 

10 October 2016

 

The PEP project builds on the Polymorphic Encryption and Pseudonymisation technique developed by Bart

Jacobs and Eric Verheul. This technique stores pseudonymised data in encrypted form. Researchers working on the data can only decrypt the parts of the data for which they have access rights.

 

See http://pep.cs.ru.nl/ for more details.

 

The collection and analysis of medical data on a big data scale is becoming an essential approach to

understand complicated diseases. In order to gain new insights it is important that international researchers

can cooperate: they will have to access each other’s data and contribute to the data sets. In many cases, such medical research involves privacy sensitive data about patients. Patients should be able to count on

preservation of their privacy and on secure storage of their data. All this should comply with upcoming

European privacy regulations, which are the most stringent in the world.

 

The PEP project has its own funding from public sources, with a current budget of €1.6M; €760K is funded by the Province of Gelderland, and the remainder by Radboud University. Eventually the software will be made publicly available under an open source license.

 

Tweemaal het PI.lab in De Correspondent

 

20 August 2016

 

Onlangs verschenen in de Correspondent twee artikelen over PI.lab onderzoekers: Corien Prins (over de

risico’s van Big Data; Corien is lid van onze bestuursraad) en Bert Jaap Koops (over zijn Vici onderzoek naar een nieuw paradigma voor privacy bescherming).