minlərlə britaniyalı haqda şəxsi məlumatlar artıq polis orqanlarının əlindədir. Halbuki bu şəxslərin əksəriyyəti heç bir cinayət törətməyib. Hesab edirlər ki, burada “təqsirsizlik prezumpsiyası” prinsipi təhlükəyə düşür. Belə sistemlər istər-istəməz müəyyən sosial qruplara qarşı ayrı-seçkiliyə gətirib çıxara bilər. Azərbaycanda belə bir sistemin qurulmasının mümkünlüyünə gəlincə, ölkəmizdə belə bir məlumat bazasının yaradılması texniki baxımdan mümkündür. Ölkədə rəqəmsallaşma sürətlə gedir, süni intellekt sahəsində də ilkin addımlar atılır. Lakin bu cür sistemin tətbiqi üçün bir neçə ciddi məsələyə aydınlıq gətirilməlidir. Şəxsi məlumatların qorunması haqqında qanunvericilik belə məlumatların yığılması və istifadəsi üçün aydın çərçivə yaratmalıdır. Alqoritmlərin qərar vermə mexanizmləri şəffaf olmalı, insan hüquqları ilə ziddiyyət təşkil etməməlidir. Cəmiyyəti də buna hazırlamaq, belə sistemin tətbiqi barədə ictimai müzakirə açmaq, vətəndaşlar məlumatlandırmaq, maarifləndirmək də vacibdir”.
Natiq Ələsgərov deyib ki, sistemə nəzarət edən, sui-istifadə hallarını araşdıran və ictimai hesabat təqdim edən bir qurum da yaradılsa, heç bir problem yaranmaz: “Əgər bu cür sistemlər şəffaf, etik və hüquqi çərçivədə qurularsa, cinayətlərin qarşısının alınmasında faydalı ola bilər. Məsələn, məişət zorakılığı hallarını erkən müəyyənləşdirib müdaxilə etmək, intihara meylli şəxsləri zamanında yardımla təmin etmək mümkün ola bilər. Amma sistemin “proqnozlaşdırıcı” xarakteri onu da göstərir ki, səhv ehtimallar və “etik xətalar” da qaçılmazdır. Süni intellektin hüquq-mühafizə orqanlarında istifadəsi, xüsusilə preventiv məqsədlə tətbiqi gələcəyin deyil, artıq bu günün reallığıdır. Lakin texnologiyanın imkanlarından istifadə edərkən insan hüquqları və azadlıqları unudulmamalıdır. Əks halda, texnologiya bizi qorumaq əvəzinə idarə etməyə başlayacaq”.
DOĞRU.AZ