Roba da pivelli
@aitech - Magari non ci si può fidare degli LLM, ma quando la loro risposta si può verificare indipendentemente dov’è il il problema?
Roba da pivelli
@aitech - Magari non ci si può fidare degli LLM, ma quando la loro risposta si può verificare indipendentemente dov’è il il problema?
@mau @aitech con i chatbot però ci sono antropomorfizzazione e autorevolezza percepita, che sono aggravanti non da poco del problema che già esisteva.
Secondo me il problema è questo, con l’aggravante che chi li spaccia, gli avvertimenti li mette a fondo pagina, in corpo 6, grigetto su fondo bianco.
Una volta chi veniva scoperto a credere al primo risultato di google un pò si vergognava; oggi le risposte di chatgpt e simili finiscono in tesi di dottorato, articoli scentifici, testi di legge.
@pgo @aitech sì, ma qual è la risposta? richiedere una patente per usare i chatbot? obbligarli a scrivere all’inizio di ciascuna risposta che potrebbe essere sbagliata? bloccarli del tutto?
(Fare opera di divulgazione è come svuotare l’oceano con un bicchiere: non è una scusa per non farlo, ma si sa già che i risultati saranno minimi)