Tag: artificiale

Il motore di ricerca potenziato dall’intelligenza artificiale di Google entra nella prima prova pubblica: ecco come provarlo

Google ha aperto l’accesso al suo programma di test di Search Labs consentendo agli utenti di provare l’imminente aggiornamento del motore di ricerca con il cambiamento più notevole che è la Search Generative Experience o SGE.

Per essere chiari, Search Labs non è tecnicamente aperto al pubblico poiché dovrai prima iscriverti a una lista d’attesa. Se ti sei già registrato, assicurati di controllare il tuo account di posta elettronica per un invito da Google mentre sono attualmente in fase di lancio. Non preoccuparti se non sei entrato perché c’è ancora spazio nella lista d’attesa sia su desktop che su dispositivo mobile.

Per partecipare su desktop, devi prima installare Google Chrome sul tuo computer. Da lì, vai al Sito web di Search Labs, seleziona Partecipa alla lista d’attesa e attendi l’arrivo dell’invito. Sui dispositivi mobili, avvia l’app Google. Dovresti vedere un’icona simile a un bicchiere scientifico nell’angolo in alto a sinistra dello schermo. Proprio come prima, seleziona Partecipa alla lista d’attesa, quindi attendi l’invito. Search Labs è disponibile sia su iOS che su Android, quindi nessuno viene escluso. Installa l’ultimo aggiornamento dell’app se non vedi l’icona.

Solo a tempo limitato

A meno che tu non sia abbonato a Google One Premium, potrebbe essere necessario un po’ di tempo prima di ricevere un invito. UN rapporto recente da 9To5Google afferma che gli abbonati Premium ottengono “l’accesso prioritario” a Search Labs, anche se “non sarà immediato”. “I posti di accesso sono limitati” al momento, ma se ne apriranno altri nelle “prossime settimane.

Ma una volta ricevuto l’invito, agisci in fretta. SGE e il resto degli esperimenti di Search Labs lo saranno Disponibile solo per un periodo di tempo limitato. Non si sa per quanto tempo, quindi abbiamo chiesto a Google ulteriori informazioni. Questa storia verrà aggiornata se avremo notizie.

C’è stata una discreta quantità di clamore attorno a SGE sin da quando è stato rivelato per la prima volta durante I/O 2023. La tecnologia essenzialmente migliora la Ricerca Google per fornire risposte lunghe e dettagliate alle domande prendendo in considerazione il contesto. Potrebbe benissimo completamente cambiare il modo in cui le persone utilizzano il motore di ricerca.

Un consiglio

Per i pochi fortunati che ottengono l’accesso anticipato a SGE, Google consiglia di iniziare con termini semplici in modo da abituarsi a come funziona l’IA. Una volta che ti sei fatto un’idea, prova a inserire query più specifiche. Uno dei casi d’uso evidenziati di SGE è aiutare le persone a fare acquisti. L’intelligenza artificiale può generare un elenco dettagliato di funzionalità, recensioni, prezzi e persino collegamenti al prodotto stesso.

Oltre ai consigli di Google, ne abbiamo alcuni nostri perché abbiamo utilizzato più modelli di intelligenza artificiale generativa da Bing A Riassunto coraggioso. Una cosa che abbiamo imparato è che le IA generative possono avere allucinazioni, nel senso che forniscono informazioni totalmente false che non hanno alcuna somiglianza con la realtà. Non credere sempre a quello che leggi. E fai attenzione a ciò che inserisci poiché le IA generative conservano le informazioni che digiti. In effetti, alcune importanti società tecnologiche, come Samsung, hanno vietato ai propri dipendenti di utilizzare ChatGPT dopo che alcune informazioni sensibili sono trapelate.

Google I/O 2023 ha rivelato molto di più dei semplici strumenti di intelligenza artificiale del gigante della tecnologia. Assicurati di controllare La copertura dell’evento da parte di CercaGratis É successo.

I nuovi trucchi basati sull’intelligenza artificiale di Photoshop correggeranno i tuoi errori più grandi

Adobe Photoshop è stato il gold standard nel fotoritocco per oltre tre decenni, quindi era solo una questione di tempo prima che adottasse i trucchi visti nel migliori generatori di arte AI – e ora è fatto proprio questo sotto forma di un nuovo strumento chiamato Riempimento generativo.

Il nuovo strumento, che ti consente di estendere le immagini o aggiungere oggetti utilizzando i prompt di testo, non è certamente la prima funzionalità basata sull’intelligenza artificiale che abbiamo visto in Photoshop. Generative Fill è anche uno sviluppo user-friendly di strumenti Adobe esistenti, come Content Aware Fill, ma è anche una delle nuove funzionalità di Photoshop più significative che abbiamo visto per anni.

Questo perché si basa sul potere di Adobe Lucciola, il nuovo motore di intelligenza artificiale generativa dell’azienda, per aiutarti a correggere grandi errori di composizione o reinventare completamente i contenuti di un’immagine. Nelle demo di Adobe, le immagini con orientamento verticale vengono immediatamente trasformate in quelle con orientamento orizzontale, con Photoshop che inventa semplicemente i lati della foto in base all’immagine originale.

Mentre alcuni di questi esempi sono piuttosto sottili, altri hanno un’estetica artistica molto evidente. Ad esempio, una foto di un corgi viene trasformata in una con bolle finte molto evidenti e un furgone sullo sfondo.

Adobe vede chiaramente Generative Fill come uno strumento sia per i principianti che per i professionisti, ma la nuova finestra di testo da testo a immagine è sicuramente un tocco utile per coloro che non conoscono gli strumenti esistenti di Photoshop. Puoi usarlo per aggiungere piccoli dettagli a un’immagine o cambiarne completamente lo sfondo: in un’altra demo, un cervo viene spostato dallo sfondo della foresta a una città grazie al prompt “vicolo bagnato di notte”.

Naturalmente, nulla di tutto ciò sarà nuovo per i fan di Midjourney o Dall-E, che hanno contribuito a innescare il boom di quest’anno nella generazione di testo in immagine.

Ma Adobe tiene a sottolineare che gli strumenti di intelligenza artificiale come il modello Generative Fill sono stati addestrati solo su immagini Adobe Stock, contenuti con licenza aperta e contenuti di dominio pubblico il cui copyright è scaduto. Ciò significa che possono essere utilizzati per uso commerciale senza la minaccia di azioni legali collettive da parte di artisti che affermano che alcuni modelli di intelligenza artificiale hanno rubato il loro lavoro.

Mentre Generative Fill verrà implementato nell’app Photoshop completa solo nella “seconda metà del 2023”, ci sono un paio di modi in cui puoi provarlo ora. Innanzitutto, è disponibile nell’app beta desktop di Photoshop, che puoi ottenere accedendo all’app desktop Creative Cloud, scegliendo App beta nella barra laterale sinistra, quindi installandola da lì.

La funzione è disponibile anche come modulo all’interno del solo web Adobe Lucciola, anch’esso recentemente aggiunto a Google Bard. Per utilizzare Firefly in Bard, puoi semplicemente scrivere la tua richiesta di immagine (ad esempio, “crea un’immagine di un unicorno e una torta a una festa per bambini”) e farà il resto. Che tempo per essere vivi.


Analisi: Photoshop combatte i suoi nuovi rivali AI

Alcuni degli effetti creati dal Generative Fill alimentato da Firefly sono più chiaramente generati dall’IA.

Come Google, Adobe è un gigante incumbent che è sotto l’attacco di nuovi arrivati ​​AI come OpenAI e Midjourney. Sebbene Firefly e il Generative Fill di Photoshop non stiano facendo cose che non abbiamo mai visto prima, le stanno facendo in un modo misurato che elude qualsiasi problema di copyright e aiuta a mantenere la sua reputazione.

L’abbraccio di Photoshop all’IA generativa porta anche questi strumenti completamente nel mainstream. L’editor di immagini potrebbe non essere la forza dominante che era prima che Canva, Affinity Photo e GIMP arrivassero per offrire alternative più convenienti, ma rimane uno dei migliori editor di foto in circolazione e sicuramente uno dei più utilizzati.

Dalle prime demo di Adobe, sembra che Generative Fill sia agli inizi e produca risultati contrastanti, a seconda dei tuoi gusti. In alcune immagini, gli effetti sono sottili e realistici, mentre in altre, in particolare le immagini in cui gran parte è interamente generata dall’IA, i risultati sono chiaramente generati dall’IA e potrebbero non essere molto buoni.

Tuttavia, l’arrivo dell’IA generativa insieme ad altre nuove funzionalità come lo strumento Rimuovi, un altro sviluppo dell’abilità esistente di Photoshop per consentire di eliminare oggetti indesiderati, è solo una buona cosa per coloro che non hanno familiarità con l’interfaccia a volte arcana dell’app.

Ed è un altro passo verso gli strumenti AI, come DragGAN, che cambieranno completamente la fotografia così come la conosciamo.

Questo rivale di Photoshop basato sull’intelligenza artificiale è la fine della fotografia così come la conosciamo

Photoshop ha costantemente aggiunto strumenti basati sull’intelligenza artificiale ai suoi menu negli ultimi anni, ma un’incredibile nuova demo di un team di ricerca indipendente mostra dove si stanno dirigendo i migliori editor di foto.

DragGAN potrebbe non essere ancora un prodotto di consumo a tutti gli effetti, ma il documento di ricerca (raccolto su Twitter dai ricercatori di intelligenza artificiale @_akhaliq E @icreatelife) mostra il tipo di manipolazione fotografica che deforma la realtà che sarà possibile molto presto. Questa tecnologia basata sull’intelligenza artificiale sfiderà ancora una volta la nostra definizione di cosa sia effettivamente una foto.

Sebbene abbiamo già visto effetti di fotoritocco simili, in particolare negli strumenti di Photoshop come Perspective Warp, la demo di DragGAN porta l’idea e l’interfaccia utente a un nuovo livello. Come mostrano gli esempi seguenti, DragGAN ti consente di manipolare con precisione le foto per modificare le espressioni del soggetto, le posizioni del corpo e persino dettagli minori come i riflessi.

I risultati non sono sempre perfetti, ma sono impressionanti, e questo perché DragGAN (il cui nome è una combinazione di “drag” e “generative adversarial network”) genera effettivamente nuovi pixel in base al contesto circostante e al punto in cui posizioni il “drag” ‘ punti.

I filtri neurali di Photoshop, in particolare quelli disponibili nella versione beta dell’app, si sono dilettati in effetti simili per un po’, ad esempio dandoti cursori per le espressioni “felici” e “rabbia” per modificare le immagini dei ritratti. Il software DxO come Photolab ha anche la tecnologia U Point che ti consente di indicare la parte di una foto su cui desideri apportare modifiche locali.

Ma il potere della demo di DragGAN è che combina entrambi i concetti in un modo piuttosto intuitivo, permettendoti di scegliere la parte di una foto che desideri modificare e quindi di cambiare completamente la posa, l’espressione e altro del soggetto con risultati molto realistici.

Quando una versione raffinata di questa tecnologia approderà infine sugli smartphone, le foto imperfette saranno un ricordo del passato, così come l’idea che una foto sia la registrazione di un momento reale catturato nel tempo.

DragGAN offre anche controlli più granulari. Se non desideri modificare l’intera foto, puoi applicare una maschera a un’area specifica, ad esempio la testa del tuo cane, e l’algoritmo influirà solo su quell’area selezionata. Questo livello di controllo dovrebbe anche aiutare a ridurre artefatti ed errori.

Il team di ricerca ha anche promesso che nel prossimo futuro prevede di “estendere l’editing basato su punti ai modelli generativi 3D”. Fino ad allora, aspettati di vedere presto questo tipo di fotoritocco che deforma la realtà migliorare a un ritmo rapido in alcune delle migliori alternative di Photoshop.


Analisi: la prossima rivoluzione in stile Photoshop

Una prima demo della prima versione di Photoshop, che mostra l’iconica foto di “Jennifer in Paradise” in fase di modifica.

Questi trucchi di fotoritocco basati sull’intelligenza artificiale riecheggiano le prime prime demo di Photoshop oltre 35 anni fa e probabilmente avranno lo stesso livello di impatto, sia a livello culturale che sulla democratizzazione del fotoritocco.

Nel 1987, il co-creatore di Adobe Photoshop John Knoll scattò la foto qui sopra – una delle più significative del secolo scorso – su una spiaggia di Tahiti e la utilizzò per dimostrare gli incredibili strumenti che sarebbero apparsi nell’app di fotoritocco più famosa al mondo .

Ora stiamo assistendo ad alcune demo altrettanto importanti di strumenti per la manipolazione delle immagini, da Gomma magica di Google e Face Unblur al nuovo strumento di rimozione di Photoshop, che ti consente di rimuovere oggetti indesiderati nei tuoi scatti.

Ma questa demo di DragGAN, anche se solo nella fase del documento di ricerca, porta l’intero concetto di “fotoritocco” a un livello superiore. È riformare, piuttosto che ritoccare, il contenuto delle nostre foto, usando l’espressione originale o la posa semplicemente come punto di partenza per qualcosa di completamente diverso.

I fotografi potrebbero obiettare che questa è più arte digitale che “disegnare con la luce” (la frase che dà il nome alla fotografia). Ma proprio come il Photoshop originale, questi strumenti basati sull’intelligenza artificiale cambieranno la fotografia così come la conosciamo, che li vogliamo abbracciare o meno.

Google Workspace non ha davvero bisogno dell’intelligenza artificiale, ma la ottieni comunque

Google ha seguito la mandria e ha annunciato una serie di nuove espansioni di intelligenza artificiale (AI) per il suo arrivo strumento di collaborazione per impresa.

Il gigante della tecnologia ha annunciato il nuovo set di funzionalità di Google Workspace, che include la possibilità di elaborare nuovi contenuti e perfezionare il lavoro esistente documenti Google e dà Presentazioni Google l’opportunità di generare immagini dai prompt di testo.

Tuttavia dato che Microsoft ha avuto il dito in questa torta dal marzo 2023e ha appena ha annunciato uno strumento di conversione da testo a immagine simile per PowerPointè difficile per noi essere particolarmente entusiasti di tutto ciò, per ora.

L’intelligenza artificiale collaborativa di Google

Ci sono tutti, il che è positivo, suppongo: non sei obbligato a un fornitore se muori dalla voglia di usare l’ultimo espediente tecnologico. Vorrei solo che le aziende tecnologiche si ricordassero che dovrebbero avere idee originali.

Ma al posto di quello, prendi questo… Fogli Google ora – sbadigli – analizzerà e fornirà informazioni utili sui tuoi dati, con classificazione automatica dei dati e creazione di piani personalizzati.

Al centro di tutto questo c’è – sì – l’intelligenza artificiale in grado di comprendere il contesto dei tuoi dati oltre il semplice contenuto di una cella. Una nuova funzione “aiutami a organizzare”, anche se sei un adulto, genererà un elenco completo delle cose da fare basato sui compiti per cui hai bisogno dell’aiuto di tua madre.

Documenti non si limiterà a svolgere il tuo lavoro per te (incluso grammaticalmente corretto, “livello professionale” in francese, spagnolo, giapponese e “altro”), ma utilizzerà la sua tecnologia proprietaria “smart chip” per personalizzarlo, quindi ora puoi, ad esempio, attirare candidati di lavoro brillanti e ispirati nella tua rete fino a quando non dici loro gentilmente che le macchine stanno gestendo il posto.

Posti come il bandwagoner della gig economy Lyft, che ha scritto, o ha fatto scrivere a un computer, senza alcun senso dell’ironia, che “(Lyft) è entusiasta (!) di testare le nuove esperienze generative di Workplace (!!)”.

Google si degna di assicurarci che continua a credere nell’“ingegnosità delle persone reali”, caratterizzando il lavoro delle sue IA come “suggestioni”. Per me è tutto un po’ come “Gizmo è andata a vivere in una fattoria con gli altri suoi amici cani”, ma almeno, se sei un amministratore IT, ti viene dato il potere politico di far cessare il dolore.

Microsoft ha trovato un nuovo modo per forzare l’intelligenza artificiale di Bing sugli utenti Edge: è nei tuoi PDF

Microsoft sta introducendo di nascosto un altro viticcio della sua Bing AI in Edge, con il chatbot integrato con la funzionalità del lettore PDF del browser, almeno nei test.

Ciò è stato notato dal leaker basato su Twitter Leopeva64, che ha scoperto molto materiale relativo a Edge negli ultimi tempi. L’integrazione del chatbot di Bing è stata trovata nel canale Canary di test per il browser.

Vedi altro

Puoi vedere come funziona nel tweet qui sopra. C’è un nuovo pulsante “Chiedi a Bing Chat” presente nel lettore PDF e, se fai clic su di esso, vedrai apparire Bing AI nella barra laterale (sulla destra).

È quindi possibile avviare una chat relativa al PDF attualmente aperto in Edge, da lì svolta nel solito modo.


Analisi: aspettati di più da questo genere di cose

Negli ultimi tempi abbiamo visto Microsoft spingere Bing su Edge con diverse nuove angolazioni, in quello che sta diventando uno schema abbastanza chiaro. All’inizio di questo mese, lo stesso leaker ha evidenziato la presenza di una nuova opzione per attivare Bing AI nel menu contestuale del tasto destro in Edge, una misura piuttosto radicale in termini di integrazione.

Questo cambiamento è stato anche in fase di test con la versione Canary di Edge, la prima build di test, quindi questi bit di funzionalità hanno ancora molta strada da fare prima di raggiungere la versione di rilascio del browser di Microsoft.

Tuttavia, data la grande spinta generale per Bing – non solo in Edge, ma altrove, come in Windows 11 (nella barra delle applicazioni, nella casella di ricerca) – saremmo sorpresi, francamente, se questi cambiamenti non venissero realizzati. Più precisamente, ci aspetteremmo che Microsoft stia cercando altre aree dell’interfaccia, sicuramente nel browser Edge, dove Bing AI può essere inserito.

Come sempre, c’è una linea da percorrere qui, tra l’innalzamento del profilo del chatbot di Bing e il rischio di infastidire le persone che non vogliono vedere l’IA spuntare ovunque nel browser. Anche se è vero che è probabile che questa linea venga tracciata in un punto diverso con i test rispetto al rilascio, e non tutto farà il taglio.

Per quanto riguarda il modo in cui Bing AI sta andando finora in termini di utilizzo, il chatbot potrebbe essere innegabilmente popolare, ma non sembra aumentare il traffico di ricerca di Bing con alcune nuove cifre (anche se nota: questo contraddice le statistiche che abbiamo sentito prima).