• Menu

0 recente resultaten

De week: Facebook-ethics, Google-raters en de toekomst van collaboratiesoftware

Een stukje service van ons naar jou toe: mooie, ontroerende, zorgwekkende en/of hilarische linkjes over internetvrijheid die we deze week ontdekten en graag met je delen.

De if-I-were-you-I-would-reads

  • Er was heisa rondom Facebook afgelopen week: het Australische advertentie-salesteam had lopen opscheppen naar potentiĆ«le klanten dat Facebook bij tieners precies kan zien wanneer die zich onzeker voelen en dus gevoeliger zouden kunnen zijn voor bepaalde reclames. Olivia Solon vindt dat daarmee echt een grens is overschreden terwijl Antonio Garcia-Martinez, een voormalige advertentiebaas van Facebook, het probleem niet zo ziet, en Wired het de hoogste tijd vindt voor een ethicus in het bestuur.
  • Wist je dat Google ruim 10.000 raters heeft, mensen die helpen bij het verbeteren van de kwaliteit van de diensten van de informatiegigant? Google is hier niet al te publiek over. Volgens Ars Technica, waar een profiel van de raters verscheen, is dit omdat ze vooral willen uitstralen dat Google alles met (neutraal, onfhankelijke, rationele) algoritmes oplost. Niet met mensen die dit vanuit huis en zonder enige vorm van arbeidsbescherming doen.
  • Een wetenswaardig artikel over algoritmes die helpen bepalen of gedetineerden in een aantal staten in de VS vrijkomen of niet. De software (Compas) geeft rechters advies over de kans dat een crimineel in herhaling valt, maar de algoritmes die hiervoor gebruikt worden zijn volgens moederbedrijf Northpointe een handelsgeheim. Waarom moeten rechters vertrouwen op het advies van software waarbij ze geen inzicht hebben in de werking? Zeker omdat het risico bestaat dat deze software meer zwarte Amerikanen benadeelt dan witte.
  • Frank Karlitschek is met Nextcloud verantwoordelijk voor een belangrijk stukje van de technologiepuzzel voor mensen die graag hun data in eigen beheer houden. Op Opensource.com beschrijft hij zijn visie voor de toekomst van collaboratiesoftware.
  • Adrienne Jeffries heeft in een artikel op de Outline nog eens op een rijtje gezet hoe het komt dat veel algoritmes leiden tot racistische resultaten (zie bijvoorbeeld de excuses die FaceApp afgelopen week moest maken). Volgens Jeffries komt die bias voort uit de data die gebruikt wordt om de machine learning algoritmen te trainen, die is te eenzijdig.
  • En tot slot voor de commandline en ASCII-liefhebber: check ascii-cinema, een soort YouTube voor tekst...

Help mee en steun ons

Door mijn bijdrage ondersteun ik Bits of Freedom, dat kan maandelijks of eenmalig.

Dankjewel supporter van vrij internet!

Je ontvangt de inlogcode via de mail.

Als donateur ontvang je elk kwartaal een speciale update, maar als je up-to-date wil blijven over ons werk kun je het beste abonneren op onze nieuwsbrieven. Schrijf je hieronder in!

    Gelukt!

    Je ontvangt nu ook onze nieuwsbrief. Je kunt deze popup sluiten.

    Er ging iets mis tijdens de betaling

    Je betaling is niet juist afgehandeld, probeer nog eens.

    Support en doneer!

    Meer weten over doneren aan ons? Lees er hier alles over.