Guide: Så avslöjar du ett falskt konto i sociala medier

Guide: Så avslöjar du ett falskt konto i sociala medier

Falska konton med falska profilbilder är ett problem ute på nätet men du kan avslöja bedragarna med hjälp av tjänster som finns lätt tillgängliga ute på nätet. Här är Magasin Mackens Guide för att avslöja trollen och fifflarna.

En bild säger mer än tusen ord brukar det heta och när det gäller falska konton ute på nätet så säger en bild också massor om du kan ta reda på om samma bild använts på fler än ett ställe. de som skapar falska konton brukar ”låna” bilder av andra. Profilbilder på människor som ser trevliga ut eller som har det utseende som bedragaren utger sig för att ha. Alltför att skapa en falsk bild och ett falskt konto.

Kolla bilden

TinEye

Det här är en effektiv, snabb tjänst för att kontrollera bilder, var de förekommer och det ger dig svar på om en bild använts på flera ställen. Du kan ladda upp en bild eller så skriver du in sökvägen till en bild för att göra en sökning. Då får du veta om bilden använts på flera ställen och var.

FotoForensics

FotoForensics kan kontrollera om en bild har manipulerats, om det har lagts till saker i bilden eller om det har plockats bort objekt. Något som bedragare inte sällan gör. De lägger in objekt i en bild och de plockar bort avslöjande detaljer. Speciellt error level analysis, ELA, är ett effektivt sätt för att se om saker lagts till i efterhand.

Google Image Search

Jag brukar inte rekommendera Google eller sökjättens tjänster av integritetsskäl men här gör jag ett undantag. Bildsökning via Google söktjänst är ibland ett effektivt sätt för att se om bilder använts på andra ställen ute på nätet. Högt uppe till häger hittar du bildsökningsfunktionen ”Bilder”.

Kolla profilen

Profilen, beskrivningen och innehållet brukar avslöja bedragaren. Låter det för bra för att vara sant så är det också oftast så. Här är en checklista:

  • När skapades kontot? Helt nya, färska konton är en varningssignal men kom ihåg att ibland kapas gamla konton, informationen ändras för att det ska ge intryck av att vara ett gammal konto.
  • Kolla vilka andra profiler och konton som följs. Ett äldre konto där informationen efter det att kontot har kapats kan ha en skara följare som inte stämmer in på profilen.
  • Hur många profilbilder och bilder innehåller kontot. De flesta av oss byter profilbild då och då. En enda bild och få bilder i övrigt kan vara en varningssignal.
  • Är bilden lite för bra? Vanligen plockar vi en bild tagen i vardagen. En profilbild, tagen i studio uppenbarligen av en professionell fotograf behöver inte vara en varningssignal men som sagt – de flesta av oss använder enklare bilder som profilbilder.
  • Ingen profilbild, en hund, katt eller något helt annat – inte ovanligt men om du är misstänksam av andra skäl så brukar de värsta trollen använda anonyma konton.
  • Kolla kontots adress – stämmer URL inte överens med namnet så finns det skäl att dra öronen åt sig. Du ser adressen i webbläsarens fönster. Kallar sig användaren för en sak men adressen i fönstret säger något annat så är det definitivt en varningssignal.
  • Aktiviteter – vad har postats bakåt i tiden? Massor av länkar till webbplatser fyllda med annonser, en massa förfrågningar om att prata privat och så vidare tyder på att det inte är en helt vanligt användare.

Var skeptisk

Ett exempel:

En yngre kvinna skickade ett DM, privat meddelande till mig på Twitter. Hon ville bli min vän sa hon.

Dags att använda lite logik och skepsis här: Varför skulle en ung, attraktiv kvinna vilja bli min vän, en total främling från ett helt annat land och på Twitter? Det är inte så att jag har låga tankar om mig själv men jag är synnerligen lyckligt gift och jag har inget som helst intresse av att bli vän med yngre okända kvinnor på Twitter. En snabb kontroll av hennes konto och hennes inlägg gav omgående en bekräftelse på det jag misstänkte.

Listan på exakt samma typ av inlägg var ännu längre och genomgående så sökte hon kontakt med äldre män, inga män i samma ålder. Jag tror mig inte ha fördomar men när listan på samma typ av inlägg och förfrågningar snabbt passerade ett trettio-tal på rätt kort tid så tror jag inte att hon var ute efter att hitta vänner att ta en kopp kaffe med. Nu vet jag inte med säkerhet vad det var hon ville, ska tilläggas. När jag frågade varför hon skickat ett stort antal meddelanden till en stor skara män med samma innehåll så återkom hon aldrig.

Checklista

  • Kolla bilden, profilbilden
  • Kolla övriga bilder och inlägg
  • Kolla följare och när kontot skapades

Lägg till lite sund skepsis så lär du i de allra flesta fall lyckas att avslöja nättrollen, bedragarna och fifflarna ute på nätet.

Nu kommer Twitter Blue – den sociala tjänsten prenumeration

Nu kommer Twitter Blue – den sociala tjänsten prenumeration

Nu lanserar Twitter sin betaltjänst, Twitter Blue, som ger tillgång till nya funktioner, först, och flera exklusiva funktioner. Twitter Blue är just nu bara tillgänglig för iOS-användare och i Kanada och Australien.

De nya funktionerna är:

Bokmärken

Du kan sortera och lagra dina bokmärken i foldrar

Reader Mode

Långa trådar med flera inlägg läggs samman i en enda text.

Undo Tweet

Det är inte en knapp för att redigera inlägg i efterhand utan en 30 sekunders fördröjningsfunktion. Under den tiden så kan du stoppa eller editera inlägget.

Twitter skriver i sin blogg att nya funktioner kommer framöver.

Priset

Priset är satt regionalt – just nu är det ungefär motsvarande3 3 dollar i månaden vilket in svenska pengar blir strax under 26 kronor.

Twitter

Trumps nya sociala tjänster har 30 dagar på sig att uppfylla licenskraven annars stängs tjänsten ned

Trumps nya sociala tjänster har 30 dagar på sig att uppfylla licenskraven annars stängs tjänsten ned

Trumps nya sociala tjänst Truth Social har visat sig vara en kopia av Open Source-projektet Mastodon. Trump har kopierat all källkod, all grafik och sedan klistrat på en egen upphovsrättmarkering – i strid med licensen som gäller för Mastodon.

Det är The Software Freedom Conservancy (SFC) som granskat Truth Social, kommit fram att den källkod som används är Mastodon och att den används i strid med gällande licensregler. Nu får Truth Sociala ett ultimatum – gör ’ändringar i den sociala tjänsten och efterlev licensreglerna, annars kommer Truth Social inte att få tillgång till projektet längre.

Today, we saw the Trump Media and Technology Group ignoring those important rules — which were designed for the social good. Once caught in the act, Trump’s Group scrambled and took the site down.

Early evidence strongly supports that Trump’s Group publicly launched a so-called “test site” of their “Truth Social” product, based on the AGPLv3’d Mastodon software platform. Many users were able to create accounts and use it — briefly. However, when you put any site on the Internet licensed under AGPLv3, the AGPLv3 requires that you provide (to every user) an opportunity to receive the entire Corresponding Source for the website based on that code. These early users did not receive that source code, and Trump’s Group is currently ignoring their very public requests for it. To comply with this important FOSS license, Trump’s Group needs to immediately make that Corresponding Source available to all who used the site today while it was live. If they fail to do this within 30 days, their rights and permissions in the software are automatically and permanently terminated. That’s how AGPLv3’s cure provision works — no exceptions — even if you’re a real estate mogul, reality television star, or even a former POTUS.

The Software Freedom Conservancy (SFC)

Trumps nya sociala tjänst har kopierat Mastodon och bryter mot licensvillkoren

Twitters algoritmer favoriserar högerkonservativa åsikter men Twitter vet inte varför

Twitters algoritmer favoriserar högerkonservativa åsikter men Twitter vet inte varför

Twitter har anklagas för att stoppa högerkonservativa åsikter och beskyllts för censur – inte minst från högerkonservativ håll. Nu visar det sig att twitters egna algoritmer favoriserar högerkanten på den politiska skalan men Twitter vet egentligen inte riktigt varför.

I april i år så inledde Twitter en översyn av de algoritmer som tjänsten använder . Twitter lovade också att redovisa resultatet av undersökningen som ett svar på kritiken från högerhåll. Nu är resultatet presenterat och det visar sig att Twitters algoritmer har en slagsida åt höger, inte åt vänster.

Två aspekter

Det är två aspekter av algoritmerna som Twitter har tittat på – dels om algoritmerna förstärker och prioriterar politiker, dels om någon sida på den politiska skalan kan sägas ha en fördel av algoritmerna.

What did we find?

  • Tweets about political content from elected officials, regardless of party or whether the party is in power, do see algorithmic amplification when compared to political content on the reverse chronological timeline.  
  • Group effects did not translate to individual effects. In other words, since party affiliation or ideology is not a factor our systems consider when recommending content, two individuals in the same political party would not necessarily see the same amplification. 
  • In six out of seven countries — all but Germany — Tweets posted by accounts from the political right receive more algorithmic amplification than the political left when studied as a group.
  • Right-leaning news outlets, as defined by the independent organizations listed above, see greater algorithmic amplification on Twitter compared to left-leaning news outlets. However, as highlighted in the paper, these third-party ratings make their own, independent classifications and as such the results of analysis may vary depending on which source is used.

Twitter

Folkvalda

När det gäller folkvalda så ser det ut som att Twitters system är tämligen neutralt men när det handlar om att lyfta fram åsikter så slår det över åt högerhållet. När nu Twitter konstaterar detta så konstaterar den sociala tjänsten även att Twitter inte riktigt vet varför.

Ny läcka avslöjar att Facebook negligerade varningar – vinsterna gick före

Ny läcka avslöjar att Facebook negligerade varningar – vinsterna gick före

Facebooks kris blir allt djupare. Nu har nya uppgifter läckt ut från den sociala mediejätten, från en ny visselblåsare. Uppgifter som ger stöd åt kritiken att Facebook negligerat egna, interna varningar för att tjäna så mycket pengar som möjligt.

De nya uppgifterna, publicerade av Washington Post, ger stöd till Francis Haugen uppgifter om att Facebook i flera fall negligerat eller tonat ned egna, interna undersökningar gällande den egna tjänsten. I det här fallet så handlar det om rasism, hat och en ökad polarisering. Facebook valde, medvetet, att inte ingripa, inte reglera och att inte försöka att stävja därför att konflikter engagerar och engagemang är det Facebook tjänar pengar på.

The whistleblower’s allegations, which were declared under penalty of perjury and shared with The Post on the condition of anonymity, echoed many of those made by Frances Haugen, another former Facebook employee whose scathing testimony before Congress this month intensified bipartisan calls for federal action against the company. Haugen, like the new whistleblower, also made allegations to the Securities and Exchange Commission, which oversees publicly traded companies.

The Guardian

Trump

När varningarna, den egna interna forskningen och undersökningarna varnade för vart Facebook var på väg så valde ledningen att sopa problemen under mattan bland annat av rädsla för att irritera administrationen i Vita Huset och Donald Trump. De nya uppgifterna ger stöd till tidigare kritik där Facebook anklagas för att prioritera den egna vinsten framför användarnas säkerhet.

“It will be a flash in the pan. Some legislators will get pissy. And then in a few weeks they will move onto something else. Meanwhile we are printing money in the basement, and we are fine.”

Tucker Bounds, chef inom Facebook

Inte ens när interna rapporter visade att över 10 procent av alla politiska inlägg på Facebook innehåll felaktiga och falska uppgifter om att det amerikanska presidentvalet 2020 var riggat och att Joe Biden vann efter ett omfattande valfusk så ingrep Facebook.

Extremister

Facebook ingrep inte heller, eller gjorde några ändringar, när det visade sig att de egna algoritmerna resulterade i tips till användare om extremistiska grupper på den egna tjänsten. Användare uppmanades att besöka och ta kontakt med extremistgrupper efter att ha engagerat sig i ett ämne.

Though Smith had never expressed interest in conspiracy theories, in just two days Facebook was recommending she join groups dedicated to QAnon, a sprawling and baseless conspiracy theory and movement that claimed Trump was secretly saving the world from a cabal of pedophiles and Satanists.

NBC News

Smith i det här fallet var en påhittad användare, Carol Smith, som en forskare inom Facebook skapade för att se och studera hur den egna tjänsten faktiskt fungerade. Två dagar efter det att kontot skapades fick Carol Smith de första tipsen om högerextremistiska grupper med kopplingar till QAnon.

Försvarar sig

Facebook försvarar sig med att Washington Post nu baserar hela sin rapportering från uppgifter från en enda källa.

“This is beneath the Washington Post, which during the last five years would only report stories after deep reporting with corroborating sources,”

Erin McPike, talesperson för Facebook 

 

Facebook säger att AI ska städa upp plattformen men Facebooks egna utvecklare tvivlar

Facebook säger att AI ska städa upp plattformen men Facebooks egna utvecklare tvivlar

Facebook har upprepade gånger sagt att AI och algoritmer ska användas för att städa upp den sociala plattformen. Med hjälp av programmering och datorer så ska rasism, hat och extremism rensas ut men Facebooks egna utvecklare tvivlar på att det är möjligt och den sociala mediejätten egna, interna information visar att bara en mycket liten del av de problematiska inläggen hittas med AI.

Hatfyllda inlägg, lögner, rasism och extremism är ett problem för Facebook som utåt säger en sak som inte stämmer med egna, interna undersökningar och mätningar. I interna dokument så säger Facebooks egna anställda att den mängd som hittas med hjälp av algoritmer och AI är mycket liten och att det handlar om några få procent – även i bästa fall så når Facebook inte två-siffrigt, 10 procent eller mer. Interna undersökningar har exempelvis visat att Facebooks AI-lösningar har haft svårt att skilja mellan tuppfäktning och krockande bilar.

That future is farther away than those executives suggest, according to internal documents reviewed by The Wall Street Journal. Facebook’s AI can’t consistently identify first-person shooting videos, racist rants and even, in one notable episode that puzzled internal researchers for weeks, the difference between cockfighting and car crashes.

On hate speech, the documents show, Facebook employees have estimated the company removes only a sliver of the posts that violate its rules—a low-single-digit percent, they say. When Facebook’s algorithms aren’t certain enough that content violates the rules to delete it, the platform shows that material to users less often—but the accounts that posted the material go unpunished.

Wall Street Journal

Interna dokument

De interna dokumenten som Wall Street Journal fått ta del av visar också att Facebook minskade antalet anställda som ska granska inlägg för två år sedan vilket gjorde Facebook ännu mer beroende av AI och tekniska lösningar.

”The problem is that we do not and possibly never will have a model that captures even a majority of integrity harms, particularly in sensitive areas”

En av Facebooks egna utvecklare i den interna dokumenten.