Il mio hard disk contiene molte ipotesi di lavoro, idee per progetti, presentazioni a prospect e via di seguito. In questi giorni, facendo pulizia e ordine, sto scoprendo delle vere e proprie chicche, come questa che condivido. Nel 2006, avevo ipotizzato un aggregatore che fosse in grado di filtrare le notizia usando il collaborative filtering: progetto ambizioso che avrebbe richiesto molte risorse per essere testato e che è rimasto solo nelle slide. Tuttavia, il concept mi sembra tuttora interessante: in fin dei conti è il tentativo di automatizzare la social curation che va tanto di moda oggi 🙂
Se avete notizia di qualcuno che nel frattempo ha sviluppato qualcosa di analogo, fatemelo sapere… Se ancora non esiste e volete cimentarvi, fatemelo sapere lo stesso: magari potremmo trovare l’occasione per collaborare 🙂
4 Responses
L’idea di filtrare il rumore generato dal web estraendo le notizie “migliori” è l’idea di fondo di quello che oggi viene definito il web 3.0.
Ecco perchè l’idea di JuiceRss è ancora attuale e lo sarà per molto tempo ancora.
Ci sono diverse iniziative simili, anche se non identiche. Cito le prime che mi vengono in mente come wikio, marketingland, sphinit. Anche Google sta lavorando a qualcosa (ripples è solo la punta di un iceberg).
Tecnicamente parlando JuiceRss è un progetto ambizioso e complesso che gira attorno alla chimera del permalink. Comunemente siamo tutti concordi sul dare per scontato che il permalink esista e sia rintracciabile, ma la realtà non è questa. Il permalink esiste, ma molto spesso viene “offuscato” da servizi di URL Shortening che non sempre rendono agevole la rintracciabilità della fonte da parte di un bot. I problemi legati alla rintracciabilità del permalink sono di due tipi:
1) “La tracciabilità “: si tratta di risalire alla sorgente del permalink e trasformare un url abbreviato (es: http://bit.ly/w8JeBd) in un permalink (es: http://blog.nicolamattina.com/…ecc…). Il problema non è di facile risoluzione e molto dipende da come il servizio di shortening lavora (redirect 301, redirect html, javascript). Diciamo che c’è da divertirsi.
2) “La rintracciabilità “: si tratta di rintracciare il permalink all’interno delle varie interazioni sociali degli utenti (+1, Like, RT, ecc..). Qui la cosa si fa seria. Se potessimo ipotizzare che tutto il mondo utilizzasse un solo servizio di shortening e redirect, allora il problema sarebbe di facile soluzione (avremmo solo 2 possibili variabili per ogni link). Tuttavia i servizi di shortening, redirect ed embedding di vario tipo (come per es. summify) sono innumerevoli ed in continua evoluzione il che aumenta in modo esponenziale il numero di variabili in gioco.
A parte le problematiche tecniche, che in genere possono essere risolte con un po’ di “olio di gomito” e magari un piccolo cambio di prospettiva, l’esigenza di riordinare e riorganizzare i contenuti (e non solo le notizie) è qualcosa di molto attuale ed assolutamente reale.
Termino qui questo commento fin troppo lungo, tecnico e noioso.
Sto lavorando su vari progetti, ancora in fase Alpha, molto vicini all’idea di fondo di JuiceRss ma con una prospettiva leggermente diversa. Chissà , magari potremmo collaborare.
Gian Angelo,
grazie per il lungo e articolato commento 🙂
Interessante, soprattutto perché datata 2006. Complimenti per la visione.
Ad oggi la curation si sta evolvendo verso la compartecipazione dei due fattori presenti qui:
1 – Quello social ‘manuale’, derivato dalle interazioni punto-punto fra gli utenti e i contenuti da loro stessi proposti. Chi trova di interesse creare e rilanciare informazione crea un punto di ingresso per tutti i suoi lettori che, per definizione, ne condividono gli interessi.
Questo meccanismo virtuoso già sdoganato, per certa fascia d’utenza, dall’esperienza su Twitter e Facebook sostituisce felicemente la fase di filtro e ordinamento dei contenuti: bastano le categorie, al resto pensa l’interazione fra gli utenti (almeno a questo primo livello)
2 – Quello automatico per far emergere nuovi contenuti da raccomandare, ormai divenuto una profilazione dell’utente ‘on steroids’: vi si accoppia la proposta di contenuti estrapolati dallo storico recente di utenti dal profilo simile. L’onnipresenza di profili social da cui prelevare ulteriori dati può inoltre dare grande impulso per correggere forte il tiro, nella proposta quotidiana, su ciò che è più ‘caldo’ nell’immaginario dell’utente singolo.
Open Graph ha reso più a portata di algoritmi anche meno raffinati la buona riuscita di queste operazioni. Raccomandare contenuti per affinità con quanto già letto è in realtà un passo indietro perché si ha difficoltà a spingersi con criterio verso aree borderline, là dove invece comincia la ‘serendipity’ del lettore avido.
Concordo sull’ultima affermazione, ma ho idea che la serendipity sfugga a qualsiasi algoritmo 🙂