Roba da pivelli
@aitech - Magari non ci si può fidare degli LLM, ma quando la loro risposta si può verificare indipendentemente dov’è il il problema?
Roba da pivelli
@aitech - Magari non ci si può fidare degli LLM, ma quando la loro risposta si può verificare indipendentemente dov’è il il problema?
@pgo @aitech attenzione. In questo caso chiunque sa come fare, o almeno spero che chiunque sappia fare una ricerca standard per verificare la risposta del chatbot: e se non la sa fare il problema è molto più a monte del chatbot.
@mau @aitech hai colto perfettamente il punto del mio commento.
Le competenze richieste per o anche solo la semplice curiosità/prudenza che ti portano a verificare la risposta, non sono (più?) diffuse.
@pgo @aitech ribadisco: questo è un problema che c’era da ben prima dei chatbot. Pensa solo a tutti quelli che si fermano al primo risultato di una ricerca.
@mau @aitech con i chatbot però ci sono antropomorfizzazione e autorevolezza percepita, che sono aggravanti non da poco del problema che già esisteva.
Secondo me il problema è questo, con l’aggravante che chi li spaccia, gli avvertimenti li mette a fondo pagina, in corpo 6, grigetto su fondo bianco.
Una volta chi veniva scoperto a credere al primo risultato di google un pò si vergognava; oggi le risposte di chatgpt e simili finiscono in tesi di dottorato, articoli scentifici, testi di legge.
@pgo @aitech sì, ma qual è la risposta? richiedere una patente per usare i chatbot? obbligarli a scrivere all’inizio di ciascuna risposta che potrebbe essere sbagliata? bloccarli del tutto?
(Fare opera di divulgazione è come svuotare l’oceano con un bicchiere: non è una scusa per non farlo, ma si sa già che i risultati saranno minimi)