lingo.lol is one of the many independent Mastodon servers you can use to participate in the fediverse.
A place for linguists, philologists, and other lovers of languages.

Server stats:

54
active users

#safeguardingresearch

1 post1 participant0 posts today
Replied to nb

@nb @RenkeSiems

Au weia! Was soll man da noch sagen 🙄😬

Ich teile die Frustration! Ich persönlich habe seit mehr als 12 Jahren versucht, Bewusstsein für das was jetzt #safeguardingresearch heisst zu wecken, z.T explizit mit PubMed als Beispiel. Ich kann nur feststellen, dass ich damit vollständig versagt habe. Auch im Nachhinein fällt mir aber auch nichts ein, was ich ausser trommeln und schreien hätte machen können?

Replied to Björn Brembs
@brembs

Wie immer ein sehr wertvoller Beitrag, danke für den Hinweis und danke an den Autor für die Aktualisierung.

Ich beobachte wie viele andere auch die aktuellen Entwicklungen overseas und hierzulande mit Besorgnis. Parallel frage ich mich schon seit Jahren, wann die #OpenAccess, #FDM und #NFDIrocks Communites dann auch mal auf breiter Basis konkret Konsequenzen aus solchen Ausführungen wie die von @RenkeSiems in ihrem eigenen Handeln und ihrer Nutzung von Tools und Plattformen ziehen.

Auch jetzt blicke ich in diese Communities und sehe eine Dichte an Abhängigkeit von US-basierten Plattformen und Anbietern, eine unkritische Nutzung und Bewerbung von eben jenen und auch den im Artikel kritisierten Technologien (aktuell sticht mir da noch der Hype speziell um #generativeKI und #LLMs hervor, auf den der Beitrag leider nicht eingeht) und dann ist da noch die überwiegende Beschäftigung mit sich selbst.

Auch dieser Artikel enthält wieder viele textuelle Bekundungen und Hoffnungen aus und hinsichtlich dieser Communities, doch wenn ich mir das, wie beschrieben, im praktischen Alltag anschaue, manifestieren sich diese dort nicht, obwohl es Statements dieser Art schon seit Jahren, wenn nicht Jahrzehnten gibt.

Entsprechend überrascht es mich nicht, dass zuletzt als es mal mehr als Ernst wurde, nämlich bei #SafeguardingResearch, einzelne Forschende, Aktivist*innen und andere engagierte Einzelpersonen wie üblich alles selbst in die Hand nehmen mussten. Eigentlich ist dieses Versagen institutioneller Player hierzulande, was Anfang dieses Jahres 2025 angeht, schon unverzeihlich. In jedem Fall hat es mein Vertrauen, meine Hoffnung in diese Communites dauerhaft erschüttert.

Noch ein Bonus Fact für alle, die so weit gelesen haben: Die Plattform des luxemburgischen Diamond-Open-Access-Verlags, auf der dieser Beitrag bzw. dieses Buch veröffentlicht ist, wird bei dem US-Hyperscaler DigitalOcean gehostet.

#OpenScience #Wissenschaft #Forschung #Privacy #Tracking #Datenschutz #AcademicPublishing #AcademicMastodon #AcademicChatter

A group dealing with at-risk educational materials is looking for help:

"The Digital Public Goods Library is looking for librarian volunteers who have experience cataloging materials with education-related metadata in a digital library environment, to assist in identifying and making available public domain and openly licensed educational materials that are either at-risk or have lost their digital home."

1/3
#SafeguardingResearch #DataRescue

:crt_w_green_lines: Hackathon: Data Under Threat / Data Rescueing (Aug 7) in #München

The LMU Open Science Center (@lmu_osc) runs a hackathon to support the #SciOp #SafeguardingResearch initiative: Rescuing research data that is deleted by the Trump administration.

Bonus: @lavaeolus will give an ignition talk!

📅 Thursday, 2025-08-07, 16 – 19 (only in-person)
👉 Details and signup: github.com/lmu-osc/safeguar.de

Become a data rescuer by turning your own laptop into a Research Data Rescue Node, scraping at-risk data sets, and breathing new life into your old HDD as part of a global, decentralised network.

#LMUMünchen #OpenScience #OpenData #DataRescue
CC @SafeguardingResearch @bitsUndBaeumeAuxMuc

I revived an old HDD with a #RaspberryPi Zero W 2 for #DataRescue:ing:

It runs ...

(a) a Bittorrent client that seeds at-risk data sets from the #SciOp database
(b) the `sciop-scraper` script to get new datasets into the swarm

Setup instructions for the Pi Zero: codeberg.org/nicebread/HiveSee

Setup instructions for `sciop-scrape` (on macOS & RPi): codeberg.org/nicebread/HiveSee

Let me know if the instructions work for you; happy to collaborate on the manual.

Data comes in many forms, but not every time there is a dataset ready to be saved:

We, together with @datarescueproject.org and partners need YOUR help in preserving American history – but this time, we need you to put on your ranger hat and boots, and trek to your local national park to #SaveOurSigns

saveoursigns.org

#NationalPark #NPS #SafeguardingResearch

Please share widely! <3

saveoursigns.orgSave Our Signs - Photo submissionA crowd-sourced photo collection of National Parks Service signs to preserve copies before they can be removed, and to document any changes that are made.
Replied in thread

@jonny With the updated commands I got it to run now (with minor modifications) on macOS. On RPi I will try again tomorrow (currently no access to the machine).

I am currently scraping „rp_enchanter_ver02“ with 24 GB and counting. Three questions:

(1) Can I know how large the download will be?
(2) Can I stop the scraping, or will the download then be corrupted?
(3) I assume that after downloading it automatically starts seeding?

Should we keep this conversation on (a) Mastodon, (b) safeguar.de forum or (c) Codeberg issues? Where can most people profit from it?

I am looking forward to our event "Data, Power, Control – Digital Science Between Resilience and Restriction" at the @ECDF this Thursday (July 3) at 4 p.m. tinyurl.com/yd8rd6fj

We will have some very interesting presentations on #Safeguardingresearch by @lavaeolus, feminist and queer data science, and narrative resilience for countering right-wing digital dominance.

There is still time to register for the event, if you want to come by: events.tu-berlin.de/e/10005186

@IBI_HU
@hu_rmz

Replied in thread

@glynmoody

Even now, when people start #SafeguardingResearch we are making the same mistakes again! As you point out in your article, all our outputs are in danger, be it research data or papers. And GitHub is a single point of failure foir scholarly code, too!

All of our outputs are under threat. If we had to invent infrastructures for our outputs, nobody would invent different silos for each output, so linking code, data and text together would be made more difficult, rather than easier?

Update: Got the right now 🎉
There will be things happening under #SaveOurSigns soon.

Is here someone experienced in setting up #WikimediaCommons Upload Campaigns?

If yes, I got a question re requesting the permission to create one :)
See: commons.m.wikimedia.org/wiki/C
(related to #SafeguardingResearch)

Boosts very welcome
#Wikimedia

commons.m.wikimedia.orgCommons:Requests for rights - Wikimedia Commons