[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: sistema per gestione personalizzazioni configurazioni



La versione in Debian era molto problematica, infatti uno degli stati che gli ho impostato serve per installare l'ultima versione (attualmente 3007.1) dal repo ufficiale.

Per evitare i problemi con la versione di sistema di Python, le ultime release utilizzano il formato onedir, cioè hanno il loro Python con relativi moduli tutto sotto opt (questo all'inizio mi ha spiazzato non poco: non vedeva ne i moduli che installavo con apt ne quelli che instalavo con pip, poi ho letto la documentazione ed è bastato usare salt-pip invece di pip3 :).

La licenza è Apache 2.0, quindi direi "abbastanza" libera. I sorgenti sono su GitHub: https://github.com/saltstack/salt/

Quello che peoccupa un po' è il passaggio sotto l'ala di Broadcom (Salt è (stato) sponsorizzato da VMWare). Ma per ora non pare ci siano modifiche alla licenza, e se ci fossero si fa presto a fare un fork.

Diego

Il 27/04/2025 08:58, Davide Prina ha scritto:
Diego Zuccato ha scritto:

Magari non sarà il top nel tuo caso, ma mi trovo molto bene con salt.

ma salt è stato tolto definitivamente da Debian circa un anno fa.
Da testing è stato eliminato dal 2022[¹]. Se vado sul sito indicato
come homepage non trovo neanche più i sorgenti, probabilmente non lo
rilasciano più con licenza libera.

La rimozione, da quel che ho capito, è stata causata prima da una
incompatibilità con la nuova versione di python del 2022[²] e poi la
rimozione totale è stata causata dall'uso di OpenSSL.crypto.PKCS12 che
era deprecato e sarebbe stato eliminato da Debian a breve[³]

Ciao
Davide

[¹] https://tracker.debian.org/pkg/salt

[²] https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=1009804

[³] https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=1067062

--
La mia privacy non è affar tuo
https://noyb.eu/it
- You do not have my permission to use this email to train an AI -
If you use this to train your AI than you accept to distribute under AGPL
license >= 3.0 all the model trained, all the source you have used to
training your model and all the source of the program that use that model


--
Diego Zuccato
DIFA - Dip. di Fisica e Astronomia
Servizi Informatici
Alma Mater Studiorum - Università di Bologna
V.le Berti-Pichat 6/2 - 40127 Bologna - Italy
tel.: +39 051 20 95786


Reply to: