Inteligjenca artificiale gjenerative, si ajo që zhvillohet nga Google, duket si magji teknologjike, por pas saj qëndrojnë ekipe të mëdha punonjësish të quajtur “inxhinierë promptesh” dhe analistë, të cilët vlerësojnë saktësinë e përgjigjeve të chatbot-ëve për të përmirësuar sistemet.
Google ka prezantuar udhëzime të reja për punonjësit e kontraktuar që punojnë me Gemini, sistemin e saj të avancuar të AI-së, duke ndaluar ata të shmangin vlerësimin e përgjigjeve që janë jashtë ekspertizës së tyre. Kjo ka ngritur shqetësime për potencialin e AI-së për të dhënë informacion të pasaktë, veçanërisht mbi tema të ndjeshme si kujdesi shëndetësor.
Punonjësit e kontraktuar përmes kompanisë GlobalLogic, në pronësi të Hitachit, më parë mund të kalonin disa pyetje, veçanërisht ato që kërkonin ekspertizë të veçantë, si kardiologjia ose kodimi. Megjithatë, me ndryshimin e fundit, kjo praktikë nuk lejohet më.
Udhëzimet e mëparshme u lejonin punonjësve të “shmangnin” pyetjet për të cilat nuk kishin ekspertizë kritike. Por tani, ata duhet të vlerësojnë çdo pyetje, edhe nëse nuk kanë njohuri të mjaftueshme për të ofruar vlerësime të sakta.
Punonjësit janë udhëzuar të vlerësojnë pjesët që kuptojnë dhe të shënojnë që nuk kanë njohuri për pjesën tjetër. Kjo ka ngritur pikëpyetje mbi efektivitetin e këtij qasjeje dhe mundësinë që informacionet e pasakta të përfundojnë në duart e përdoruesve.
Një punonjës komentoi në korrespondencën e brendshme: “A nuk ishte ideja e shmangies të sigurohej saktësia duke ia kaluar dikujt më kompetent?” Tani, shmangia lejohet vetëm kur mungon plotësisht informacioni ose kur përmbajtja është e dëmshme dhe kërkon miratim special për vlerësim.
Ky ndryshim rrit shqetësimet për cilësinë e përgjigjeve të Gemini-t, veçanërisht në tema komplekse dhe të ndjeshme si sëmundjet e rralla. Për më tepër, përpjekjet për të përmirësuar sistemet AI mund të dëmtohen nëse vlerësimet janë të bazuara në njohuri të paplota.
Deri në kohën e publikimit të lajmit, Google nuk kishte ofruar ndonjë koment zyrtar mbi këtë ndryshim, duke shtuar më tej pasigurinë për efektet afatgjata të këtyre udhëzimeve.
Përmbledhje:
- Ndryshimet e fundit të Google në udhëzimet për Gemini kanë ngritur shqetësime për saktësinë e AI-së në tema të ndjeshme.
- Punonjësit tani duhet të vlerësojnë përgjigjet, pavarësisht mungesës së ekspertizës së tyre.
- Ky vendim mund të ndikojë negativisht në cilësinë e informacionit që AI gjeneron për përdoruesit.
Hashtage:
#GoogleGemini #InteligjencaArtificiale #AIAccuracy #ShqetësimeEtike #VlerësimiAI