Mae astudiaeth newydd wedi datgelu y gall deallusrwydd artiffisial gynhyrchu lluniau o bobl go iawn ac mae bron yn amhosib dweud pa luniau yw'r lluniau go iawn.
Gan ddefnyddio modelau Deallusrwydd Artiffisial, sef ChatGPT a DALL·E, gwnaeth tîm o ymchwilwyr o Brifysgol Abertawe, Prifysgol Lincoln a Phrifysgol Ariel yn Israel greu lluniau realistig o wynebau ffuglennol ac wynebau adnabyddus, gan gynnwys enwogion.
Gwnaethon nhw ddarganfod nad oedd cyfranogwyr bob tro'n medru eu gwahaniaethu wrth y lluniau go iawn - hyd yn oed pan oeddent yn gyfarwydd â golwg y person.
Drwy gynnal pedwar arbrawf gwahanol, nododd yr ymchwilwyr fod ychwanegu lluniau cymharu neu os oedd cyfranogwyr yn gyfarwydd â’r wynebau o flaen llaw, dim ond yn helpu ychydig.
Mae'r ymchwil newydd gael ei chyhoeddi yn y cyfnodolyn Cognitive Research: Principles and Implications a dywed y tîm bod eu canfyddiadau'n amlygu lefel newydd o realaeth sydd wedi'i chreu gan ddeallusrwydd artiffisial, sy'n dangos bod deallusrwydd artiffisial bellach yn medru cynhyrchu delweddau ffug argyhoeddiadol o bobl go iawn, a gall hyn leihau ymddiriedaeth pobl yn y cyfryngau gweledol.
Dywedodd yr Athro Jeremy Tree o'r Ysgol Seicoleg: "Mae astudiaethau wedi dangos nad oes modd gwahaniaethu rhwng delweddau o wynebau pobl ffuglennol a gynhyrchir gan ddefnyddio deallusrwydd artiffisial a lluniau go iawn. Ond ar gyfer yr ymchwil hon, cymeron ni gam ymhellach drwy gynhyrchu lluniau synthetig o bobl go iawn.
Mae'r ffaith y gall offer deallusrwydd artiffisial bob dydd wneud hyn yn codi pryderon dybryd am wybodaeth anghywir ac ymddiriedaeth yn y cyfryngau gweledol, ond mae hefyd yn amlygu'r angen am ddulliau darganfod dibynadwy ar unwaith."
Yn ystod un arbrawf, a oedd yn cynnwys cyfranogwyr o UDA, Canada, y DU, Awstralia a Seland Newydd, dangoswyd cyfres o ddelweddau o wynebau i'r cyfranogwyr, a oedd yn cynnwys lluniau go iawn a lluniau a gynhyrchwyd yn artiffisial, a gofynnwyd iddynt nodi pa rai oedd y lluniau go iawn a'r lluniau artiffisial. Dywed y tîm bod y ffaith i gyfranogwyr gredu bod wynebau a gynhyrchwyd gan ddeallusrwydd artiffisial yn lluniau go iawn yn dangos pa mor argyhoeddiadol oedd y lluniau.
Yn ystod arbrawf arall, gofynnwyd i'r cyfranogwyr a oeddent yn medru gwahaniaethu rhwng lluniau go iawn o sêr Hollywood megis Paul Rudd ac Olivia Wilde a fersiynau wedi'u cynhyrchu â chyfrifiadur. Unwaith eto, dengys canlyniadau'r astudiaeth mor anodd ydoedd i unigolion adnabod y fersiwn go iawn.
Dywed yr ymchwilwyr fod gallu deallusrwydd artiffisial i gynhyrchu lluniau newydd/synthetig o bobl go iawn yn cynnig nifer o opsiynau ar gyfer defnyddio a cham-ddefnyddio deallusrwydd artiffisial. Er enghraifft, gall crëwyr gynhyrchu lluniau o enwogion yn cefnogi cynnyrch neu safbwynt gwleidyddol penodol, a allai ddylanwadu ar farn y cyhoedd am hunaniaeth a'r brand/sefydliad y mae'n ymddangos bod yr enwogion yn eu cefnogi.
Ychwanegodd yr Athro Tree: "Mae'r astudiaeth hon yn dangos y gall deallusrwydd artiffisial gynhyrchu lluniau synthetig o wynebau newydd ac wynebau adnabyddus, ac nid yw'r mwyafrif o bobl yn medru gwahaniaethu rhyngddyn nhw a lluniau go iawn. Nid oedd bod yn gyfarwydd ag wyneb neu gael lluniau i gyfeirio atynt yn helpu llawer wrth adnabod y lluniau ffug. Dyna pam y mae angen i ni ddod o hyd i ffyrdd newydd o'u darganfod ar unwaith.
"Er efallai y bydd systemau awtomataidd yn perfformio'n well na phobl yn y dasg hon yn y pen draw, cyfrifoldeb y gwylwyr yw penderfynu beth sy'n real, am y tro."