გთავაზობთ საინტერესო იდეას რომელზეც ცხადია ჩვენი კიბოს დაავადებიდან გამომდინარე ამაზე ობიექტურად არავინ მსჯელობს ოპოზიციაში იმიტომ რომ ქოცური განგრენა გვაქვს მოსაშორებელი, მაგრამ აი მერე რას ვშვებით? მე გთავაზობთ გამოსავალს რომელზეც ადრე თუ გვიან დავიწყებთ მსჯელობას. ეს არის ხელოვნურ ინტელექტთან ერთად მართვა სახელმიწფო უწყებების. ამ დისკუსიის ეპიზოდში გთავაზობთ მსჯელობას სასამართლოს ეპიზოდზე, რომ მომავალში მოსამართლე ახორციელებდეს სასამართლო მომსახურებას AI სთან თანამშრომლობით, თუ როგორ ჯერ იხილეთ ვიდეო შემდეგ კი წაიკითხეთ ჩემი დიალოგი AI სთან თუ როგორ უნდა დაინერგოს ეს სისტემა სასამართლოსა და სხვა სფეროებში
ეს კი ჩემი დისკუსია AI სთან:
» სპოილერის ნახვისთვის დააწკაპუნეთ აქ «
AI როგორც სასამართლო ასისტენტი: პრინციპი
AI აკეთებს:
ფაქტების იდენტიფიკაციას
სამართლებრივი პრეცედენტების მოძიებას
წინასწარ შეფასებას ან რეკომენდაციას
ალგორითმზე დაყრდნობილ თანმიმდევრულ ანალიზს
მოსამართლე აკეთებს:
გადაწყვეტილების მიღებას
სოციალური, მორალური, კონტექსტუალური და ადამიანისეული ინტუიციის გათვალისწინებას
საბოლოო არგუმენტაციის ჩამოყალიბებას
პროგრამული მოთხოვნები: როგორ უნდა შეიქმნას AI, რომელიც ყოველთვის მიუკერძოებლად და სტაბილურად აფასებს იდენტურ ქეისებს?
AI-ის სისტემამ უნდა აკმაყოფილებდეს შემდეგ კრიტერიუმებს, რომ 1000-ვე შემთხვევაში იდენტურ ქეისზე ერთნაირი ანალიზი მიაწოდოს:
1. დეტერმინისტული პასუხების გენერაცია (Determinism)
დღესდღეობით ChatGPT და მსგავსი მოდელები მუშაობენ სტოქასტიკური (შემთხვევითი) ტემპერატურის პირობებში — ანუ პასუხები იცვლება სინონიმებში, სტილში ან ზოგჯერ დასკვნაშიც.
გასათვალისწინებელია მოდელის ტემპერატურის დაყენება 0-ზე, რაც გამორიცხავს შემთხვევითობას და უზრუნველყოფს მუდმივად ერთსა და იმავე პასუხს იდენტურ მონაცემებზე.
ტექნიკურად: უნდა გამოვიყენოთ GPT ან სხვა LLM მოდელი temperature=0, top_p=1, seed=კონტროლირებადი.
2. სისტემური ინსტრუქციების სტანდარტიზაცია
საჭიროა AI-ს "როლური ინსტრუქცია" (system prompt) იყოს მკაცრად განსაზღვრული:
მაგალითად: "შენ ხარ სამართლებრივი ასისტენტი, რომელიც იძლევა მხოლოდ ფაქტზე დაფუძნებულ, კანონით გამყარებულ, ნეიტრალურ ანალიზს".
ეს ხელს უშლის პასუხის ტონალურ გადახრებს ან ემოციურ ჩარევას.
3. სტრუქტურირებული შეყვანის მოთხოვნა (Structured Input)
იდენტური ქეისების ანალიზი მხოლოდ მაშინ იქნება თანმიმდევრული, თუ ქეისებიც სტრუქტურულად არის წარმოდგენილი:
ფაქტები
დრო
მტკიცებულებები
სამართლებრივი მუხლები
მაგალითად: ყველა ქეისი უნდა იყოს ფიქსირებულ JSON ფორმატში, სადაც ყველა დეტალი იმავე სტრუქტურაშია წარმოდგენილი.
4. დასკვნის გამჭვირვალობა (Explainability)
AI-ს მიერ მომზადებული დასკვნა უნდა შეიცავდეს ასაბუთებელ არგუმენტაციას, რომელიც სტანდარტულ ლოგიკას ეყრდნობა.
ეს არგუმენტები უნდა იყოს შემოწმებადი — პრეცედენტებზე ან მუხლებზე მიბმული.
5. კონტროლზე და მიუკერძოებლობაზე შემოწმება (Bias Auditing)
AI მოდელები უნდა გაიარონ რეგულარული შემოწმება მიკერძოებულობის რისკების გამო.
აუცილებელია სასწავლო მონაცემების დაბალანსება და ეთიკური მმართველობის ჩართვა.
6. ვერსიების კონსისტენტულობა
ერთსა და იმავე მოდელს (მაგ. GPT-4) სხვადასხვა ვერსიები დროთა განმავლობაში შესაძლოა შეიცვალოს.
უნდა მოხდეს მოდელის "დაყინვა" (model version pinning), ანუ მუდმივად გამოყენებულ იქნას ერთი და იგივე ვერსია, რომ შედეგები არ იცვლებოდეს მოდელის განახლებების მიხედვით.
დასკვნა ექსპერიმენტის იდეისთვის:
თუ შენ გსურს, შეამოწმო ეს პრაქტიკაში, შეგიძლია:
აიღო იდენტური სამართლებრივი ანალიზის ქეისი (სტრუქტურირებულად).
გამოიყენო OpenAI API შემდეგ პარამეტრებით:
json
Copy
Edit
{
"model": "gpt-4",
"temperature": 0,
"top_p": 1,
"messages": [...],
"seed": 1234
}
1000-ჯერ გაუშვა და ნახო, სტრუქტურულად რამდენად იდენტურია პასუხები.
დასკვნით:
დიახ, შესაძლებელია AI-ის როლი გავხადოთ ანალიტიკური სასამართლო ასისტენტი, რომელიც გონივრულად, მიუკერძოებლად და სტაბილურად იძლევა ერთსა და იმავე პასუხს იდენტურ პირობებში — თუ ტექნიკური პარამეტრები სწორადაა მართული.
თუ გინდა, შეგიძლია ჩავთვალოთ, რომ შენ ქმნი ასეთ სისტემას (მაგ., სამართლებრივი ანალიტიკური ასისტენტი), და მე დაგეხმარები არქიტექტურის დაგეგმვაში — step-by-step. გინდა ასეთი მოდელი შევადგინოთ?
You said:
ანუ არსებობს ალბათობა რომ ახალმა ვერსიამ ვერდიქტი შეცვალოს?
ChatGPT said:
დიახ — არსებობს რეალური ალბათობა, რომ ახალმა ვერსიამ იგივე ქეისზე განსხვავებული ვერდიქტი დადოს, რაც გამოწვეულია რამდენიმე მიზეზით:
რატომ შეიძლება შეცვალოს ვერდიქტი ახალმა AI ვერსიამ?
1. მოდელის შიდა არქიტექტურის ცვლილება
ახალი ვერსიები (მაგ., GPT-3.5 → GPT-4 → GPT-4.5 → GPT-5 და ა.შ.) უფრო ჭკვიანდება, მაგრამ შეცვლის გადაწყვეტილების მიღების სტრატეგიას:
შესაძლოა სხვა პრიორიტეტს მიანიჭოს პრეცედენტს ან მორალურ არგუმენტს.
შეიცვალოს იურიდიული წონის ანალიზის ლოგიკა.
2. ტექსტური სტაბილურობის დაკარგვა
ახალი ვერსიები შესაძლოა სტილისტურად ან ლოგიკურად განსხვავებულად ჩამოაყალიბოს პასუხი, მაშინაც კი თუ საბოლოო აზრი იგივეა.
ზოგჯერ კი — შინაარსობრივადაც შეიძლება შეიცვალოს პოზიცია, განსაკუთრებით რთულ ან ინტერპრეტირებად სამართლებრივ შემთხვევებში.
3. ახალი ტრენინგ მონაცემები
ახალი ვერსია შეიძლება გაწვრთნილი იყოს სხვა სამართლებრივ დოკუმენტებზე ან პრეცედენტებზე.
ეს ახალი ცოდნა გავლენას ახდენს იმაზე, რას თვლის “სწორ” დასკვნად.
4. პრინციპული გაურკვევლობა — სამართლებრივი საკითხი არაა ბინარული
ბევრ სამართლებრივ ქეისს აქვს ბუნებრივი ინტერპრეტაციის სივრცე, და ახალი ვერსია ამ სივრცეში სხვა დასკვნას გააკეთებს, რაც არ ნიშნავს ავტომატურად შეცდომას — მაგრამ ნიშნავს, რომ სტაბილურობა არ გარანტირდება.
გამოსავალი: როგორ დავიცვათ სტაბილურობა?
თუ გსურს, AI ვერდიქტები დროის მიხედვით არ იცვლებოდეს, საჭიროა:
მოდელის ვერსიის გაყინვა (version pinning)
გამოიყენო მხოლოდ კონკრეტული მოდელი (მაგ., GPT-4 0613) და არ განაახლო სანამ არ გინდა.
სისტემური ტესტები
სტაბილურობის შესამოწმებლად რეგულარულად გაუშვი ერთი და იგივე ქეისი და შეამოწმე პასუხის იდენტურობა.
პასუხების არქივაცია და დოკუმენტირება
ვერდიქტის ტექსტი, არგუმენტები და მეტამონაცემები (მოდელი, თარიღი, პარამეტრები) უნდა ინახებოდეს, რომ საჭიროების შემთხვევაში მოსამართლე ან სხვა მხარე შეძლოს დისქრეციის განხილვა.
მოკლედ
დიახ, ახალმა AI ვერსიამ შეიძლება შეცვალოს ვერდიქტი, იმიტომ რომ ის აღარ არის ზუსტად იგივე მოდელი.
თუ სტაბილურობა და პროგნოზირებადობა აუცილებელია, უნდა გამოიყენო უცვლელი, კონტროლირებადი პირობები.
AI სასამართლოში სასარგებლო იარაღია, მაგრამ მხოლოდ მაშინ, როცა მისი არქიტექტურა და ლოგიკა საჯაროდ ხელმისაწვდომია ან მტკიცე კონტროლის ქვეშ.
მოგინდა შევადგინოთ პროტოტიპი, სადაც ეს სტაბილურობის კრიტერიუმები იქნება ჩაშენებული?
You said:
შესაძლებელია რომ AI ასისტენტი მუშაობდეს აბსოლუტურად ყველა მართვით ორგანოში მსგავსი თანამშრომლობის საკანონმდებლო ჩარჩში სადაც კანონმდებელი უკვე მხოლოდ ასაბუთებს AI ს დასკვნას ან ასაბუთებს უარყოფას?
ChatGPT said:
შესაძლებელია — მაგრამ მხოლოდ იმ შემთხვევაში, თუ სამართლებრივი სისტემა, ტექნოლოგიური არქიტექტურა და პოლიტიკური ნება ერთდროულად ეთანხმებიან ამ მოდელის დანერგვას.
ამ ტიპის მოდელი წარმოადგენს „AI-სამართლებრივი რეფორმის“ ერთ-ერთ ყველაზე ამბიციურ ვერსიას და შეიძლება ძალიან ეფექტური გახდეს, თუ სწორადაა გაწერილი შემდეგი ოთხი ელემენტი:
1. საკანონმდებლო ჩარჩო: AI როგორც საკონსულტაციო სავალდებულო ინსტანცია
იდეა:
სახელმწიფო ორგანოებს, სასამართლოებს, სამინისტროებს და სხვა რეგულატორებს სავალდებულოდ მოეთხოვოთ, გამოიყენონ სერტიფიცირებული AI მოდული როგორც მოსამზადებელი ინსტრუმენტი.
კანონი ადგენს, რომ გადაწყვეტილება უნდა ეფუძნებოდეს ან უნდა ასაბუთებდეს რატომ ეთანხმება ან არ ეთანხმება AI-ის დასკვნას.
მსგავსად:
როგორაც მოსამართლე ასაბუთებს, რატომ გადახვდა პროკურორის მოთხოვნას;
ან მინისტრი ასაბუთებს, რატომ არ მიიღო ადმინისტრაციული რეკომენდაცია.
2. AI-ს უნიფიცირებული ინსტრუქცია და ვერსია ყველა ორგანოში
ერთსა და იმავე სამართლებრივ საკითხზე, ყველა უწყებაში ერთი და იგივე მოდელი უნდა გამოიყენებოდეს, იგივე პარამეტრებით.
უნდა არსებობდეს:
სტანდარტიზებული prompts და input ფორმატები
შენახვის სისტემა, სადაც ჩანს ვინ, როდის და როგორ მიმართა AI-ს
3. მოსამართლის/უფლებამოსილი პირის ვალდებულება:
სიტუაცია მოთხოვნა
ეთანხმება AI-ს უნდა დაასაბუთოს, რატომ მიიჩნევს დასკვნას მართებულად
არ ეთანხმება AI-ს უნდა წარმოადგინოს ალტერნატიული ანალიზი და დაასაბუთოს გადახრა
მიიჩნევს დასკვნას დისკრიმინაციულად ან არაეთიკურად უნდა შეიტანოს საჩივარი სპეციალურ ზედამხედველობით ორგანოში
4. AI-ის სამართლებრივი პასუხისმგებლობის ჩარჩო
რადგან AI ვერ ატარებს სამართლებრივ პასუხისმგებლობას, უნდა არსებობდეს:
ადამიანი (ან ორგანო), ვინც პასუხისმგებელია მის გამოყენებაზე;
შინაგანად გაწერილი ზედამხედველობის ორგანო, რომელიც გააკონტროლებს:
AI-ის მიკერძოებულობას
არაკონსტიტუციურ ან დისკრიმინაციულ დასკვნებს
განახლებების მართვას
სად ვიყავით და სად მივდივართ?
ამ ეტაპზე მსგავსი მოდელები იწყება მხოლოდ ცალკეულ სფეროებში:
საფრანგეთი, კანადა და ესტონეთი უკვე იყენებენ AI სისტემებს ადმინისტრაციულ სამართალში როგორც კონსულტანტებს.
ევროკავშირის AI რეგულაცია (AI Act) ითვალისწინებს „high-risk AI systems“ კლასიფიკაციას, რაც მოიცავს მართლმსაჯულებას.
რა შესაძლებლობას ქმნის ეს მოდელი?
თუ საქართველომ ან სხვა სახელმწიფომ დანერგა ეს მოდელი:
შემცირდება ადამიანის მიერ მიღებული ქაოტური და მიკერძოებული გადაწყვეტილებები
გადაწყვეტილებები გახდება გამჭვირვალე, თანმიმდევრული და კონტროლირებადი
სასამართლოს, ადმინისტრაციისა და პარლამენტის საქმიანობა მიიღებს ანალიტიკურ და ტრეკვად მონაცემობრივ საფუძველს
დასკვნა
დიახ, შესაძლებელია შექმნათ სამართლებრივად გამყარებული მოდელი, სადაც ხელოვნური ინტელექტი სავალდებულო ანალიზის ინსტრუმენტია, ხოლო ადამიანური ორგანო იღებს საბოლოო გადაწყვეტილებას, თუმცა ვალდებულია მის ასაბუთებად.
გსურს, რომ ამისთვის შექმნათ კონცეფციის პროექტი, კანონპროექტის მონახაზი ან პროტოტიპი, რომელიც სახელმწიფოს, პარლამენტს ან მოსამართლეებს წარუდგენს?
ასეთი მოდელის დიზაინი შეგვიძლია ეტაპობრივად შევადგინოთ — ტექნიკური, სამართლებრივი და ეთიკური შრეებით.
You said:
ამ შემთხვევაში AI pin ვერსია გამართლებული მხოლოდ სასამართლო პრაქტიკაზე მეჩვენება და არა პოლიტიკურ მართვაზე.
ChatGPT said:
სრულიად სწორად ხედავ — AI-ის version pinning (ანუ ფიქსირებული ვერსიის გამოყენება) მართლაც უფრო გამართლებულია სასამართლო პრაქტიკაში, ვიდრე პოლიტიკურ მართვაში. აი რატომ:
რატომ არის version pining საჭირო სასამართლოში?
1. პრეცედენტების თანმიმდევრობა
სამართალში კანონის ერთგვაროვანი ინტერპრეტაცია კრიტიკულად მნიშვნელოვანია.
თუ ერთი და იგივე საქმე დღეს ერთ შედეგს გამოიღებს, ხოლო ხვალ — მეორეს, ნდობა სასამართლოს მიმართ დაირღვევა.
ფიქსირებული AI ვერსია უზრუნველყოფს:
სტაბილურობას
გადამოწმებადობას
სასამართლო არგუმენტების გამჭვირვალობას
რატომ არ გამართლდება version pining პოლიტიკურ მართვაში?
1. პოლიტიკა იცვლება რეალურ დროში
პოლიტიკის არსია რეაგირება ცვალებად მოვლენებზე: ეკონომიკა, ომები, საზოგადოებრივი განწყობა, კლიმატი და სხვა.
აქ საჭიროა უახლესი ანალიზი, რომელიც ეფუძნება მიმდინარე გარემოს.
2. ახალი მონაცემების მნიშვნელობა
ადმინისტრაციულ ან სტრატეგიულ დაგეგმვაში (მაგ. საბიუჯეტო პოლიტიკა, საგარეო კურსი) ყოველდღიურად იჩენს თავს ახალი ფაქტორები.
AI-ის ძველი ვერსია შეიძლება უკვე გადატვირთულიყო მოძველებული ან ირელევანტური ალგორითმებით.
როგორ შეიძლება გავიჯანსაღოთ პოლიტიკური AI ანალიზი?
შეიძლება გამოყენებულ იქნას:
მიდგომა შინაარსი
Rolling Update მოდელი ავტომატურად ახლდება, მაგრამ ინახება ყველა ძველი პასუხის არქივი და საფუძველი Ensemble Feedback მოდელი აჩვენებს რამდენიმე პოზიციას სხვადასხვა იდეოლოგიური ხედვით — კონსერვატიული, ლიბერალური და ა.შ. Version Tagging, არა pinning გადაწყვეტილების მიღებისას ავტომატურად ინიშნება რომელი ვერსია გამოიყენა სისტემა — მაგრამ არ არის ხელით შეჩერებული
დასკვნა
სასამართლოში საჭიროა სტაბილურობა → version pinning ლოგიკურია
პოლიტიკაში საჭიროა მოქნილობა და კონტექსტურობა → ახალი ვერსიების მიღება აუცილებელია
თუ გინდა, შეგვიძლია შევადგინოთ დეტალური AI deployment policy draft, რომელიც ზუსტად განსაზღვრავს:
სად გამოიყენება pinned models
სად გამოიყენება rolling models
ვინ არის პასუხისმგებელი განახლებებზე და შეფასებაზე