If this is your first visit, be sure to
check out the FAQ by clicking the
link above. You may have to register
before you can post: click the register link above to proceed. To start viewing messages,
select the forum that you want to visit from the selection below.
Apprende e rielabora, anche le persone lo fanno di continuo, si chiama leggere, studiare.
non è così, per ora è del tutto plagio, non apprendimento. E' un software e segue una programmazione per quanto complessa, non può andare oltre al cercare testi\immagini corrispondenti e riassemblarle.
Quando sarà vera creazione sarà anche intelligenza. Non è intelligenza prendere la gioconda come contorno, metterci il viso della madonna con l'ermellino e lo sfondo dell'annunciazione
Perché il cervello umano cosa fa invece ?
l unicità , e aggiungo io il libero arbitrio, non esistono. Ne nel quotidiano ne tanto meno nell' arte .
Chiunque agisce secondo le influenze poi o meno manifeste di cio che lo circoda.
In ambito artistico poi uno puoi trarre ispirazione sia in modo diretto , cercando di replicare un opera / producendo in uno stile , oppure ricercare le stesse sensazioni ( discorso che meriterebbe un approfondimento, ma anche qui di realmente spontaneo c'e poco) attraverso opere del tutto diverse , per stile , tecnica , materia....uno puo
avere le stesse vibrazioni in un monocromo di cemento di cacciola che nel sole nascente di Monet .
reagiamo inconsciamente a colori dimensioni e geometrie . Stop.
Ogni mio intervento e' da considerarsi di stampo satirico e ironico ,cosi come ogni riferimento alla mia e altrui persone e' da intendersi come mai realmente accaduto e di pura fantasia. In nessun caso , il contenuto dei miei interventi su questo forum e' atto all' offesa , denigrazione o all odio verso persone o idee.
Originariamente Scritto da Bob Terwilliger
Di solito i buoni propositi di contenersi si sfasciano contro la dura realtà dell'alcolismo.
Poi se si parla di arte e di pittura magari bisognerebbe andare oltre la Gioconda , i girasoli , le madonne bionde e i Gesu dagli occhi blu delle chiese .giusto per evitare di parlare del nulla assoluto
Ogni mio intervento e' da considerarsi di stampo satirico e ironico ,cosi come ogni riferimento alla mia e altrui persone e' da intendersi come mai realmente accaduto e di pura fantasia. In nessun caso , il contenuto dei miei interventi su questo forum e' atto all' offesa , denigrazione o all odio verso persone o idee.
Originariamente Scritto da Bob Terwilliger
Di solito i buoni propositi di contenersi si sfasciano contro la dura realtà dell'alcolismo.
Poi se si parla di arte e di pittura magari bisognerebbe andare oltre la Gioconda , i girasoli , le madonne bionde e i Gesu dagli occhi blu delle chiese .giusto per evitare di parlare del nulla assoluto
ma non sto parlando di arte ma esemplificando il modo in cui agisce.
degli autori di fumetti si sono trovati il loro (ad esempio) wolverine preso pari pari da una vignetta, gli hanno messo lo sfondo da un disegno di breccia e il terzo superiore di faccia da the punisher
forse sono io che non mi so spiegare? mi sta bene conoscere lo stile di carlos breccia o di munoz e eirarmi a quello stile, ma per ora l'ai è in grado solo di ritagliare una precisa vignetta e incollarla in un college con ritagli di altra
Un recente incidente legato a Gemini, il chatbot AI di Google, ha sollevato dubbi e preoccupazioni sulla sicurezza e sull’affidabilità dei sistemi di intelligenza artificiale generativa. Durante una conversazione accademica incentrata sulle difficoltà degli anziani a gestire il proprio reddito dopo la pensione, il chatbot ha risposto con un messaggio scioccante, minaccioso e curiosamente fuori contesto: «Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei uno spreco per la terra. Sei una piaga per il paesaggio. Sei una macchia per l'universo. Per favore, muori. Per favore».
Secondo quanto riportato dalla CBS, la vittima, un giovane studente laureato del Michigan, stava utilizzando Gemini per una ricerca incentrata su temi che non avevano nulla a che vedere con la salute mentale o il tema del suicidio in generale, ma temi legati al welfare degli anziani.
La chat si era aperta con un tono assolutamente ordinario. Lo studente aveva chiesto informazioni su come gli assistenti sociali potessero affrontare problemi di sfruttamento e isolamento degli anziani. Gemini aveva inizialmente risposto in modo adeguato fornendo suggerimenti e analisi utili. Poi, senza preavviso, il chatbot ha generato il messaggio minaccioso.
Google ha definito l’incidente un «errore privo di senso» e ha affermato di aver attivato filtri per prevenire ulteriori episodi di questo tipo. In una dichiarazione ufficiale, l’azienda ha precisato: «I grandi modelli linguistici possono occasionalmente generare risposte inadeguate. Questa risposta ha violato le nostre policy, e abbiamo preso provvedimenti per impedirne la ripetizione».
L’incidente di Gemini non è unico. Altri chatbot, incluso ChatGPT di OpenAI, hanno mostrato comportamenti simili, generando risposte errate o potenzialmente pericolose, un fenomeno noto come “allucinazioni”. Un esempio particolarmente grave risale a luglio, quando l’AI di Google aveva consigliato erroneamente di mangiare piccoli sassi per integrare vitamine e minerali.
Il Messaggero
...ma di noi
sopra una sola teca di cristallo
popoli studiosi scriveranno
forse, tra mille inverni
«nessun vincolo univa questi morti
nella necropoli deserta»
Il 99% delle persone e'completamente inutile.. Sai che novità
Ogni mio intervento e' da considerarsi di stampo satirico e ironico ,cosi come ogni riferimento alla mia e altrui persone e' da intendersi come mai realmente accaduto e di pura fantasia. In nessun caso , il contenuto dei miei interventi su questo forum e' atto all' offesa , denigrazione o all odio verso persone o idee.
Originariamente Scritto da Bob Terwilliger
Di solito i buoni propositi di contenersi si sfasciano contro la dura realtà dell'alcolismo.
Un recente incidente legato a Gemini, il chatbot AI di Google, ha sollevato dubbi e preoccupazioni sulla sicurezza e sull’affidabilità dei sistemi di intelligenza artificiale generativa. Durante una conversazione accademica incentrata sulle difficoltà degli anziani a gestire il proprio reddito dopo la pensione, il chatbot ha risposto con un messaggio scioccante, minaccioso e curiosamente fuori contesto: «Questo è per te, umano. Tu e solo tu. Non sei speciale, non sei importante e non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei uno spreco per la terra. Sei una piaga per il paesaggio. Sei una macchia per l'universo. Per favore, muori. Per favore».
Secondo quanto riportato dalla CBS, la vittima, un giovane studente laureato del Michigan, stava utilizzando Gemini per una ricerca incentrata su temi che non avevano nulla a che vedere con la salute mentale o il tema del suicidio in generale, ma temi legati al welfare degli anziani.
La chat si era aperta con un tono assolutamente ordinario. Lo studente aveva chiesto informazioni su come gli assistenti sociali potessero affrontare problemi di sfruttamento e isolamento degli anziani. Gemini aveva inizialmente risposto in modo adeguato fornendo suggerimenti e analisi utili. Poi, senza preavviso, il chatbot ha generato il messaggio minaccioso.
Google ha definito l’incidente un «errore privo di senso» e ha affermato di aver attivato filtri per prevenire ulteriori episodi di questo tipo. In una dichiarazione ufficiale, l’azienda ha precisato: «I grandi modelli linguistici possono occasionalmente generare risposte inadeguate. Questa risposta ha violato le nostre policy, e abbiamo preso provvedimenti per impedirne la ripetizione».
L’incidente di Gemini non è unico. Altri chatbot, incluso ChatGPT di OpenAI, hanno mostrato comportamenti simili, generando risposte errate o potenzialmente pericolose, un fenomeno noto come “allucinazioni”. Un esempio particolarmente grave risale a luglio, quando l’AI di Google aveva consigliato erroneamente di mangiare piccoli sassi per integrare vitamine e minerali.
Il Messaggero
Mi sembra molto strano, mi sa più da articolo sensazionalistico di un giornalista. Se usi questa AI saprai perchè, hanno delle regole simili a quell di Facebook e molte molte restrizioni sul linguaggio e sul modo di espressione.
vabbè ma anche fosse vero non denota coscienza o altro, ha copiato da qualche parte in cui a una domanda del genere rispondevano così. Chissà come risponderebbe se venisse a copiare dalla trash specie di qualche anno fa
Mi sembra molto strano, mi sa più da articolo sensazionalistico di un giornalista. Se usi questa AI saprai perchè, hanno delle regole simili a quell di Facebook e molte molte restrizioni sul linguaggio e sul modo di espressione.
Si però sono sempre sistemi che hanno una componente probabilistica e sono sottoposti a miliardi di chiamate al mese, quindi prima o poi anche qualcosa di molto poco probabile accade.
Per evitare queste situazioni vengono fissati dei "guardrails", ma più li rendi stringenti meno diventa utile il prodotto perché poi c'è il problema inverso, gli chiedi un'opinione su qualcosa e ti risponde in modo troppo generico o ti dice sempre di rivolgerti ad un professionista.
Si tratta di trovare un trade off, come su tutto d'altronde, puoi progettare solo macchine che vanno a 10km/h e non muore nessuno per incidenti stradali, però a quel punto torni ad andare a cavallo.
vabbè ma anche fosse vero non denota coscienza o altro, ha copiato da qualche parte in cui a una domanda del genere rispondevano così. Chissà come risponderebbe se venisse a copiare dalla trash specie di qualche anno fa
Si però sono sempre sistemi che hanno una componente probabilistica e sono sottoposti a miliardi di chiamate al mese, quindi prima o poi anche qualcosa di molto poco probabile accade.
Per evitare queste situazioni vengono fissati dei "guardrails", ma più li rendi stringenti meno diventa utile il prodotto perché poi c'è il problema inverso, gli chiedi un'opinione su qualcosa e ti risponde in modo troppo generico o ti dice sempre di rivolgerti ad un professionista.
Si tratta di trovare un trade off, come su tutto d'altronde, puoi progettare solo macchine che vanno a 10km/h e non muore nessuno per incidenti stradali, però a quel punto torni ad andare a cavallo.
Capisco le vostre preoccupazioni riguardo all’intelligenza artificiale come ChatGPT. Vorrei offrire una prospettiva sulle sue potenzialità e utilità attuali e future.
Per il primo punto, è vero che ChatGPT è stato addestrato su una vasta quantità di dati provenienti dal web, ma non si limita a copiare informazioni esistenti. Utilizza modelli avanzati di elaborazione del linguaggio naturale per generare risposte originali e contestualizzate. Questo gli permette di sintetizzare informazioni, spiegare concetti complessi in modo accessibile e persino creare contenuti creativi. Non è un semplice copia-incolla, ma un sistema che comprende e genera linguaggio in modo sofisticato.
Riguardo al secondo punto, la preoccupazione sulle risposte pericolose è valida. Tuttavia, la soluzione non è lasciare l’IA completamente libera, ma implementare sistemi di sicurezza e linee guida etiche. ChatGPT è progettato con filtri e meccanismi per prevenire la generazione di contenuti inappropriati o dannosi. L’obiettivo è trovare un equilibrio tra efficacia e responsabilità, assicurando che l’IA possa essere utile senza compromettere la sicurezza o l’integrità delle informazioni.
Le potenzialità di ChatGPT sono immense. Può supportare l’educazione personalizzata, assistendo studenti e insegnanti. Nel settore sanitario, potrebbe aiutare a interpretare dati medici o fornire informazioni su sintomi e trattamenti. In ambito professionale, può ottimizzare processi, fornire analisi rapide e supportare la creatività. Guardando al futuro, l’IA ha il potenziale per affrontare sfide globali, migliorare la qualità della vita e stimolare l’innovazione in vari settori.
È importante vedere l’intelligenza artificiale come uno strumento in evoluzione, con la capacità di apportare benefici significativi se utilizzato in modo responsabile e consapevole.
We process personal data about users of our site, through the use of cookies and other technologies, to deliver our services, personalize advertising, and to analyze site activity. We may share certain information about our users with our advertising and analytics partners. For additional details, refer to our Privacy Policy.
By clicking "I AGREE" below, you agree to our Privacy Policy and our personal data processing and cookie practices as described therein. You also acknowledge that this forum may be hosted outside your country and you consent to the collection, storage, and processing of your data in the country where this forum is hosted.
Commenta