როგორ ამცირებს გონივრულ მიდგომას AI– ს მიკერძოებული მონაცემთა ნაკრებებზე

მიკერძოებული მონაცემთა ნაკრები და ეთიკური AI

AI-ზე მომუშავე გადაწყვეტილებებს სჭირდება მონაცემთა ნაკრები, რომ ეფექტური იყოს. და ამ მონაცემთა ნაკრების შექმნა სავსეა სისტემურ დონეზე მიკერძოებულობის პრობლემით. ყველა ადამიანი იტანჯება მიკერძოებით (როგორც ცნობიერი, ასევე არაცნობიერი). მიკერძოება შეიძლება იყოს ნებისმიერი სახის: გეოგრაფიული, ლინგვისტური, სოციალურ-ეკონომიკური, სექსისტური და რასისტული. და ეს სისტემატური მიკერძოება იკვებება მონაცემებში, რამაც შეიძლება გამოიწვიოს ხელოვნური ინტელექტის პროდუქტები, რომლებიც აგრძელებენ და აძლიერებენ მიკერძოებას. ორგანიზაციებს სჭირდებათ გონივრული მიდგომა მონაცემთა ნაკრებებში მიკერძოების შემცირების მიზნით.

მაგალითები, რომლებიც ასახავს მიკერძოებულ პრობლემას

ამ მონაცემთა ნაკრების მიკერძოების ერთ-ერთი თვალსაჩინო მაგალითი, რომელმაც იმ დროს ბევრი უარყოფითი პრესა მოიპოვა, იყო რეზიუმეს წაკითხვის გადაწყვეტილება, რომელიც უპირატესობას ანიჭებდა მამაკაც კანდიდატებს, ვიდრე ქალებს. ეს იმიტომ ხდება, რომ დასაქმების ხელსაწყოს მონაცემთა ნაკრები შემუშავებული იყო ბოლო ათწლეულის რეზიუმეების გამოყენებით, როდესაც განმცხადებლების უმრავლესობა მამაკაცი იყო. მონაცემები მიკერძოებული იყო და შედეგები ასახავდა ამ მიკერძოებას. 

კიდევ ერთი ფართოდ გავრცელებული მაგალითი: Google I/O დეველოპერების ყოველწლიურ კონფერენციაზე Google- მა გაიზიარა დერმატოლოგიის დახმარების ინსტრუმენტის გადახედვა, რომელიც ეხმარება ადამიანებს გაიგონ რა ხდება მათ კანს, თმასა და ფრჩხილებთან დაკავშირებულ საკითხებს. დერმატოლოგის ასისტენტი ხაზს უსვამს, თუ როგორ ვითარდება ხელოვნური ინტელექტი ჯანდაცვაში დასახმარებლად – მაგრამ ის ასევე ხაზს უსვამს AI-ში მიკერძოების შეღწევის პოტენციალს იმ კრიტიკის ფონზე, რომ ინსტრუმენტი არ არის ადეკვატური ფერადკანიანი ადამიანებისთვის.

როდესაც Google-მა გამოაცხადა ინსტრუმენტი, კომპანიამ აღნიშნა:

იმის უზრუნველსაყოფად, რომ ჩვენ ვაშენებთ ყველასთვის, ჩვენი მოდელი ითვალისწინებს ისეთ ფაქტორებს, როგორიცაა ასაკი, სქესი, რასა და კანის ტიპები - ფერმკრთალი კანიდან, რომელიც არ ირუჯება, ყავისფერი კანი, რომელიც იშვიათად იწვის.

Google, იყენებს ხელოვნურ ინტელექტს კანის საერთო მდგომარეობებზე პასუხების პოვნაში

მაგრამ Vice-ის სტატიაში ნათქვამია, რომ Google-მა ვერ გამოიყენა ინკლუზიური მონაცემთა ნაკრები:

ამოცანის შესასრულებლად მკვლევარებმა გამოიყენეს ორ შტატში მდებარე 64,837 პაციენტის 12,399 გამოსახულების სასწავლო ნაკრები. ათასობით კანის მდგომარეობიდან, მხოლოდ 3.5 პროცენტი მოვიდა ფიცპატრიკის კანის V და VI ტიპის პაციენტებით - შესაბამისად, ისინი წარმოადგენენ ყავისფერ კანს და მუქი ყავისფერ ან შავ კანს. კვლევის თანახმად, მონაცემთა ბაზის 90 პროცენტი შედგებოდა ღია ფერის, მუქი თეთრი ან ღია ყავისფერი კანის მქონე ადამიანებისგან. მიკერძოებული შერჩევის შედეგად, დერმატოლოგები ამბობენ, რომ აპმა შეიძლება დაასრულოს ზედმეტად ან არასაკმარისი დიაგნოსტიკა იმ ადამიანებისთვის, რომლებიც არ არიან თეთრი.

ვიცე, Google– ის ახალი დერმატოლოგიის აპლიკაცია არ იყო განკუთვნილი მუქი კანის მქონე ადამიანებისთვის

Google-მა უპასუხა და თქვა, რომ დახვეწავს ხელსაწყოს ოფიციალურად გამოშვებამდე:

ჩვენი ხელოვნური ინტელექტის მქონე დერმატოლოგიის დამხმარე ინსტრუმენტი სამ წელზე მეტი ხნის კვლევის კულმინაციაა. მას შემდეგ, რაც ჩვენი ნამუშევარი გამოქვეყნდა Nature Medicine-ში, ჩვენ განვაგრძეთ ჩვენი ტექნოლოგიის განვითარება და დახვეწა დამატებითი მონაცემთა ნაკრების ინკორპორირებით, რომელიც მოიცავს ათასობით ადამიანის მიერ შეწირულ მონაცემებს და მილიონობით სხვა კურირებულ კანის შეშფოთების სურათებს.

Google, იყენებს ხელოვნურ ინტელექტს კანის საერთო მდგომარეობებზე პასუხების პოვნაში

რამდენადაც ჩვენ ვიმედოვნებთ, რომ ხელოვნური ინტელექტისა და მანქანათმცოდნეობის პროგრამებს შეუძლიათ ამ მიკერძოების გამოსწორება, რეალობა რჩება: ისინი მხოლოდ ისეთია. ჭკვიანი რადგან მათი მონაცემთა ნაკრები სუფთაა. ძველი პროგრამირების ანდაზის განახლებაში ნაგვის შეტანა/ნაგვის გატანა, AI გადაწყვეტილებები მხოლოდ ისეთივე ძლიერია, როგორც მათი მონაცემთა ნაკრების ხარისხი დაწყებიდან. პროგრამისტების მიერ შესწორების გარეშე, მონაცემთა ამ ნაკრებებს არ აქვთ საკუთარი თავის გამოსწორების ფონური გამოცდილება – რადგან მათ უბრალოდ არ აქვთ სხვა მითითების ჩარჩო.

მონაცემთა ნაკრების პასუხისმგებლობით შექმნა ყველაფრის საფუძველია ეთიკური ხელოვნური ინტელექტი. და ხალხი არის გადაწყვეტის ბირთვი. 

Mindful AI არის ეთიკური AI

მიკერძოება ვაკუუმში არ ხდება. არაეთიკური ან მიკერძოებული მონაცემთა ნაკრები მოდის განვითარების ეტაპზე არასწორი მიდგომის გამო. მიკერძოებულ შეცდომებთან ბრძოლის გზა არის პასუხისმგებელი, ადამიანზე ორიენტირებული მიდგომის მიღება, რომელსაც ინდუსტრიაში ბევრი უწოდებს Mindful AI-ს. გონებამახვილურ ინტელექტს აქვს სამი კრიტიკული კომპონენტი:

1. Mindful AI არის ადამიანზე ორიენტირებული

ხელოვნური ინტელექტის პროექტის დაწყებიდან, დაგეგმვის ეტაპებზე, ადამიანების საჭიროებები უნდა იყოს ყველა გადაწყვეტილების ცენტრში. და ეს ნიშნავს ყველა ადამიანს - არა მხოლოდ ქვეჯგუფს. სწორედ ამიტომ, დეველოპერებს უნდა დაეყრდნონ გლობალურად დაფუძნებული ადამიანების მრავალფეროვან გუნდს, რათა ავარჯიშონ ხელოვნური ინტელექტის აპლიკაციები, რომ იყოს ინკლუზიური და მიკერძოებული.

გლობალური, მრავალფეროვანი გუნდიდან მონაცემთა ნაკრების ხალხმრავლობა უზრუნველყოფს მიკერძოების იდენტიფიცირებას და გაფილტვრას ადრეულ ეტაპზე. სხვადასხვა ეთნიკური წარმომავლობის, ასაკობრივი ჯგუფის, სქესის, განათლების დონის, სოციალურ-ეკონომიკური წარმომავლობისა და მდებარეობის მქონე ადამიანებს შეუძლიათ უფრო ადვილად შეამჩნიონ მონაცემთა ნაკრები, რომელიც უპირატესობას ანიჭებს ღირებულებების ერთ ჯგუფს მეორეზე, რითაც აღმოფხვრის გაუთვალისწინებელ მიკერძოებას.

გადახედეთ ხმოვან აპლიკაციებს. გონივრული ხელოვნური ინტელექტის მიდგომის გამოყენებისას და გლობალური ნიჭიერების პოპულარიზაციისას, დეველოპერებს შეუძლიათ გაითვალისწინონ ენობრივი ელემენტები, როგორიცაა სხვადასხვა დიალექტები და აქცენტები მონაცემთა ნაკრებში.

ადამიანზე ორიენტირებული დიზაინის ჩარჩოს ჩამოყალიბება თავიდანვე მნიშვნელოვანია. ეს შორს მიდის იმის უზრუნველსაყოფად, რომ გენერირებული, შერჩეული და ეტიკეტირებული მონაცემები აკმაყოფილებს საბოლოო მომხმარებლის მოლოდინს. მაგრამ ასევე მნიშვნელოვანია ადამიანების შენარჩუნება პროდუქტის განვითარების მთელი ცხოვრების ციკლის განმავლობაში. 

მარყუჟში მყოფი ადამიანები ასევე შეიძლება დაეხმარონ მანქანებს შექმნან უკეთესი AI გამოცდილება თითოეული კონკრეტული აუდიტორიისთვის. Pactera EDGE-ში, ჩვენი AI მონაცემთა პროექტის გუნდები, რომლებიც გლობალურად მდებარეობს, ესმით, თუ როგორ შეიძლება გავლენა მოახდინოს სხვადასხვა კულტურასა და კონტექსტში სანდო AI ტრენინგის მონაცემების შეგროვებასა და კურირებაზე. მათ აქვთ საჭირო ხელსაწყოები, რომლებიც საჭიროა პრობლემების დროშის მოსანიშნად, მათი მონიტორინგისთვის და გამოსასწორებლად, სანამ AI-ზე დაფუძნებული გადაწყვეტა გამოვა.

Human-in-the-Loop AI არის პროექტი „უსაფრთხოების ბადე“, რომელიც აერთიანებს ადამიანების ძლიერ მხარეებს - და მათ მრავალფეროვან ფონს მანქანების სწრაფ გამოთვლით ძალასთან. ადამიანისა და ხელოვნური ინტელექტის თანამშრომლობა უნდა ჩამოყალიბდეს პროგრამების დაწყებიდან, რათა მიკერძოებულმა მონაცემებმა არ შექმნას საფუძველი პროექტში. 

2. Mindful AI არის პასუხისმგებელი

პასუხისმგებლობა არის იმის უზრუნველსაყოფად, რომ ხელოვნური ინტელექტის სისტემები არ იყოს მიკერძოებულები და ისინი დაფუძნებულია ეთიკურ დონეზე. საუბარია იმაზე, თუ როგორ, რატომ და სად იქმნება მონაცემები, როგორ სინთეზირდება ხელოვნური ინტელექტის სისტემებით და როგორ გამოიყენება გადაწყვეტილების მიღებისას, გადაწყვეტილებებს, რომლებსაც შეიძლება ჰქონდეს ეთიკური გავლენა. ბიზნესისთვის ამის გაკეთების ერთ-ერთი გზაა ნაკლებად წარმოდგენილ თემებთან მუშაობა, რათა იყოს უფრო ინკლუზიური და ნაკლებად მიკერძოებული. მონაცემთა ანოტაციების სფეროში, ახალი კვლევა ხაზს უსვამს იმას, თუ როგორ შეიძლება შერბილდეს პოტენციური პრობლემები, რომლებიც დამახასიათებელია ტიპიური ძირითადი ჭეშმარიტების მეთოდებში, სადაც ანოტატორთა უთანხმოება შეიძლება გამოწვეული იყოს არასრული წარმოდგენით და შეიძლება იგნორირებული იყოს ერთი საფუძვლიანი ჭეშმარიტების ანოტაციების გაერთიანებაში. 

3. სანდო

სანდოობა გამომდინარეობს იქიდან, რომ ბიზნესი არის გამჭვირვალე და ახსნილი, თუ როგორ სწავლობს ხელოვნური ინტელექტის მოდელი, როგორ მუშაობს ის და რატომ ურჩევენ შედეგებს. ბიზნესს ესაჭიროება AI ლოკალიზაციის გამოცდილება, რათა მისმა კლიენტებმა შეძლონ თავიანთი AI აპლიკაციები უფრო ინკლუზიური და პერსონალიზებული გახადონ ადგილობრივი ენისა და მომხმარებლის გამოცდილების კრიტიკული ნიუანსების პატივისცემით, რამაც შეიძლება შექმნას ან დაარღვიოს AI გადაწყვეტის სანდოობა ერთი ქვეყნიდან მეორეში. . მაგალითად, ბიზნესმა უნდა შეიმუშავოს თავისი აპლიკაციები პერსონალიზებული და ლოკალიზებული კონტექსტებისთვის, მათ შორის ენების, დიალექტებისა და აქცენტების ხმაზე დაფუძნებულ აპლიკაციებში. ამგვარად, აპს მოაქვს ხმის გამოცდილების იგივე დონის დახვეწილობა ყველა ენაზე, ინგლისურიდან არასაკმარისად წარმოდგენილ ენებამდე.

სამართლიანობა და მრავალფეროვნება

საბოლოო ჯამში, ყურადღებიანი AI უზრუნველყოფს გადაწყვეტილებების აგებას სამართლიან და მრავალფეროვან მონაცემთა ნაკრებებზე, სადაც ხდება კონკრეტული შედეგების შედეგების და ზემოქმედების მონიტორინგი და შეფასება, სანამ გამოსავალი ბაზარზე გავა. გადაწყვეტის განვითარების ყველა ნაწილში გონებით და ადამიანების ჩართვით, ჩვენ ვეხმარებით უზრუნველვყოთ ხელოვნური ინტელექტის მოდელები დარჩეს სუფთა, მინიმალურად მიკერძოებული და რაც შეიძლება ეთიკური.

რას ფიქრობთ?

ეს საიტი იყენებს Akismet- ს, რათა შეამციროს სპამი. შეისწავლეთ თქვენი კომენტარის მონაცემები დამუშავებული.