Apple nu se lasă mai prejos de OpenAI cu ChatGPT și Google cu Gemini și investește mult în inteligența artificială pentru a aduce funcții noi pe iPhone 16 cu iOS 18. Acum, aflăm că cercetătorii Apple au făcut un model care poate edita imagini, doar cu niște comenzi simple și clare. Tehnologia o vom vedea la WWDC 2024 din iunie.
MGIE vine de la MLLM-Guided Image Editing, iar MLLM e acronimul de la multimodal large language model, adică o editare a imaginilor ghidată de un model mare de limbaj multimodal care poate înțelege și face comenzile utilizatorului la nivel de pixel. Instrumentul poate schimba luminozitatea, claritatea, contrastul, dar și forma, culoarea sau textura obiectului ales. Nu lipsește nici Photoshop-ul (decupare, redimensionare, rotire, filtre), dar se poate și schimba fundalul.
Noul model de inteligență artificială de la Apple ține seama și de context și de logică. De exemplu, dacă aveți o poză cu o pizza și îi spuneți să o facă mai sănătoasă, va pune legume pe ea, pentru că asta înseamnă sănătos pentru MGIE.
Modelul a fost făcut de Apple cu cercetători de la Universitatea din California și va fi în mai multe aplicații când va fi gata. Lucrarea de cercetare a fost arătată la ICLR (International Conference on Learning Representations). Codul și modelele pregătite ale modelului sunt pe Github, așa că, dacă vă pricepeți, puteți să testați ce poate face tehnologia în iPhone, iPad și poate Apple Vision Pro în viitor, pentru că Apple se ia foarte serios.


Urmărește-ne și pe Google News