Kysymys, jota monet kysyvät, on suora ja osuva: Voiko poliisi käyttää ChatGPT-keskustelujani? tai muiden osallistujien kanssa, esim. Gemini AndroidillaKun miljoonat ihmiset käyttävät näitä palveluita kuin digitaalisia luottohenkilöitä purkaakseen tunteitaan, kysyäkseen neuvoja tai jopa nuuskiakseen arkaluontoisia aiheita, ei ole ihme, että ahdistus on lisääntynyt räjähdysmäisesti.
Keskustelu on kiihtynyt sen jälkeen, kun viraalitapaukset ja teknologiayritysten omat ilmoituksetToisaalta espanjalaiset oikeusasiantuntijat muistuttavat kaikkia siitä, mikä on ja mikä ei ole sallittua täällä lain mukaan. Toisaalta OpenAI on yksityiskohtaisesti kertonut, että seuraa ja tarkastelee keskusteluja vakavien riskien edessä Ja äärimmäisissä tilanteissa se voi hälyttää viranomaiset. Välillä on ikuinen tasapainoilu sen välillä, yksityisyys ja turvallisuus.
Viraalivideo, joka sytytti sulakkeen
TikTokissa sisällöntuottaja @_mabelart jakoi tarinan, jossa hän väitti poliisin kutsuneen hänet kuulustelemaan. heidän hakujaan ja keskustelujaan ChatGPT:ssäHän kertoi, että tosirikosten harrastajana hän oli esittänyt chatbotille raakoja kysymyksiä, kuten Kuinka kauan ruumiin liukeneminen happoon kestää? Kuinka DNA poistetaan rikospaikalta? vai mitä tapahtuisi haudata ruumis metsäänKertomuksensa mukaan hän sai pian oikeudelta ilmoituksen todistaa.
Tarina herätti kaikenlaisia kommentteja. Jotkut ottivat sen kirjaimellisestiJotkut kyseenalaistivat sen, toiset kyllä, ja päähenkilö itse selvensi, että se voisi olla osa peliä hänen yhteisönsä kanssa. Tämän tietyn tapauksen todenperäisyyden lisäksi video nosti esiin keskeisen kysymyksen: Onko viranomaisilla pääsy tietoihin, joista keskustelemme tekoälyn kanssa? Kuten ChatGPT tai Gemini?
Mitä poliisi Espanjassa voi ja ei voi tehdä ChatGPT-keskusteluillasi?
Asianajaja Jesús P. López Pelaz, Bufete Abogado Amigon perustaja ja johtaja, on selvä: Lainvalvontaviranomaiset eivät voi suoraan "syöttää" keskustelujasi ChatGPT:n tai muiden kielimallien avulla. Jos haluat saada tietoa, sinun on noudatettava tiettyjä kanavia ja takuita.
Tämän asiantuntijan mukaan, Vuorovaikutukseesi liittyviä tietoja voi käyttää kahdella tavalla. tekoälyn avulla, aina oikeudellisen tuen kera:
- Lokit omalla laitteellasi (tietokoneella tai mobiililaitteella): he tarvitsevat suostumuksesi tai oikeuden määräyksen haun tekemiseen, ja on hyvä tietää, miten rajoittaa pääsyä tiettyihin keskusteluihin.
- Lokit palveluntarjoajan palvelimilla (internet-palveluntarjoaja tai tekoälyyritys): yritykselle osoitettu tuomioistuimen määräys vaaditaan kyseisten tietojen toimittamiseksi.
On tärkeää korostaa, että molemmissa tapauksissa tyypillinen pääsy olisi tietueita tai jälkiä (lokit) linkitettynä toimintaan, ei pelkästään lukemalla "kaikkia keskustelujasi kokonaisuudessaan" ikään kuin kyseessä olisi henkilökohtainen keskustelu. Erikoislupa vaaditaan.ja käytännössä sen lisäksi on kerättävä riittävät todisteet rikoksesta perustellakseen toimenpidettä tuomarin edessä.
Kun toimittaja sijaitsee ulkomailla, asiat mutkistuvat: Espanjalaisen tuomioistuimen määräys ei riitä.Se on ilmoitettava kyseisen maan (usein Yhdysvaltojen) viranomaisille, jotka arvioivat, onko pyyntö asianmukainen, perusteltu, oikeasuhteinen ja perustuuko se vankkaan näyttöön. Kansainvälinen yhteistyö ja määräajat Ne ovat siis relevantti tekijä.

Onko tämä "yksityistä viestintää", kuten ihmisten välistä keskustelua?
Oikeudellinen ero on merkittävä. López Pelaz huomauttaa, että Tekoälyn kanssa vuorovaikuttaminen on enemmän kuin internet-hakua. kuin kahden yksilön välinen suojattu keskustelu. Toisin sanoen sitä ei luokitella samalla tavalla kuin ihmisten välistä yksityistä viestintää viestinnän luottamuksellisuuden kannalta. Mitä teet chatbotilla Sitä pidetään tietoyhteiskunnan palveluna: lähetät pyynnön ja saat automaattisen vastauksen.
Incognito-tila ja historian tyhjentäminen: mitä tehdä ja mitä ei tehdä
Toinen yleinen väärinkäsitys: Käytä incognito-tilaa tai tyhjennä selaushistoriasi. Se ei tee toiminnastasi näkymätöntä palveluntarjoajalle. Se estää selaamisen tallentamisen laitteellesi, mutta Se ei poista yrityksen palvelimilla olevia tietoja.Tuomioistuimen määräyksellä tutkijat voisivat pyytää kyseisiä tietoja palveluntarjoajalta riippumatta siitä, oletko selaimessasi ei näy jälkiäParantaaksesi suojaustasi, tutustu oppaisiin yksityisyys ja turvallisuus.
Milloin viranomaiset saattavat tarkastella kanssakäymistäsi?
Teoreettiset skenaariot ovat rajalliset ja vaativat oikeudellisen reitin. Pohjimmiltaan on kaksi mahdollista skenaariota asiantuntijoiden mainitsemat poliisin pääsyä tietoihin käsitellessä:
- Kun on olemassa nimenomainen tuomioistuimen lupa mikä motivoi pääsyä kyseiseen dataan.
- Estääkseen rikoksen tekemisen juuri sillä hetkellä jos todellinen ja välitön riski todistetaan, sovellettavan lainsäädännön puitteissa.
Silloinkin, Se ei tarkoita avointa baaria tai joukkovalvontaa.Nämä ovat erityisiä, perusteltuja ja tuomioistuimen valvomia menettelyjä, jotka voivat myös edellyttää yhteistyö ulkomaisten viranomaisten kanssa kun tietoja hallussaan pitävä yritys toimii Espanjan ulkopuolella.
Mitä OpenAI sanoo ChatGPT-keskustelujen tarkastelusta ja poliisin hälyttämisestä?
Lainsäädännön rinnalla OpenAI on verkkosivuillaan selittänyt, että hallitakseen vakavia riskejä ja haitallisia käyttäytymismallejaHeidän järjestelmänsä pystyvät automaattisesti analysoimaan viestejä ja ohjaa tiettyjä keskusteluja erikoistuneille "kanaville"Tässä prosessissa pieni, koulutettu tiimi tarkistaa sisällön ja voi ryhtyä toimiin.
Yhtiö kuvailee, että jos Ihmisarvioijat havaitsevat välittömän vakavan fyysisen vahingon uhan kolmansille osapuolilleHe voisivat siirtää asian lainvalvontaviranomaisten käsiteltäväksi. Tämä ei tarkoita, että poliisiin olisi suora ja pysyvä yhteys, vaan pikemminkin sitä, että On olemassa aiempi ihmissuodatin. ennen ilmoitusta. Lisäksi yhtiö harkitsee toimia, kuten tilien sulkeminen tai sulkeminen kun se havaitsee vakavia käyttösääntöjen rikkomuksia.
Kyseisessä politiikassa OpenAI listaa analysoivansa ja moderoivat muun muassa seuraaviin alueisiin liittyviä vuorovaikutuksia:
- Itsetuhoisuus tai itsemurha (tukiresursseja varten eristäytymis- ja ohjausprotokollien avulla, mutta toistaiseksi ei ohjata poliisille).
- Aseiden kehittäminen tai käyttö ja vahinkojen suunnittelu kolmansille osapuolille.
- Vahingoittaa muita ihmisiä tai tuhota omaisuutta.
- Luvaton toiminta, joka rikkoo turvallisuutta palveluista tai järjestelmistä.
OpenAI on ilmoittanut, että "toistaiseksi" Se ei siirrä itsetuhoisia tapauksia poliisille. kunnioittaakseen käyttäjien yksityisyyttä erityisen arkaluontoisissa tilanteissa. Sen sijaan he yrittävät tarjota tukeaTukiviestejä ja viittauksia auttaviin puhelimiin ja erikoistuneisiin organisaatioihin. Tämä osoittaa selkeän eron: Korkein hälytystaso keskittyy välittömään vahinkoon kolmansille osapuolille.
Näin arviointi toimii: automaatio, ihmistiimi ja hälytyskynnys
Yrityksen mukaan prosessi alkaa n. automaattinen riski-indikaattoreiden skannausJos signaaleja ilmestyy, keskustelu "reititetään" sisäisesti niin, että pieni erikoistunut tiimi Arvioi, onko tilanne todellinen, uhkaava ja vakava. Tässä vaiheessa he voivat esimerkiksi keskeyttää palvelun, estää tilin tai poikkeustapauksissa ota yhteyttä viranomaisiin jos vaara kolmansille osapuolille on välitön.
OpenAI tunnustaa rajoitukset: näiden suojatoimien suorituskyky Se kärsii pitkien keskustelujen aikana ja sitä tarkastellaan jatkuvasti. Yhtiö myöntää myös, että Heidän sisäisiä kriteerejään ei aina julkaista yksityiskohtaisesti. ja että he pyrkivät vahvistamaan näitä protokollia muuttamatta tuotetta tunkeilevaksi valvontamekanismiksi.
Jos ihmisarvioija toteaa, että muille ihmisille on olemassa välitön ja vakava uhkaYhtiö selittää dokumentaatiossaan, että keskustelu voidaan siirtää asianomaisille viranomaisille.
Yksityisyys vs. turvallisuus: jännitteet, kritiikki ja avoimet kysymykset
Tämä lähestymistapa on kiistanalainen, koska se koskettaa herkkää hermoa: miten suojella elämää ja turvallisuutta vakavan vahingon suunnitelmien edessä muuttamatta chatbotin käyttöä hallitsematon yksityisyyden siirtoJotkut analyytikot ovat huomauttaneet, että OpenAI:n perinteinen keskustelun luottamuksellisuudesta käymä keskustelu on ristiriidassa ajatuksen kanssa tarkistaa ja tarvittaessa välittää tietoja poliisille ChatGPT:tä uhkaavat välittömät uhat. Yritys yrittää perustella tätä jännitystä seuraavilla kriteereillä: suhteellisuus ja turvallisuus.
Tämä tapahtumien käänne tapahtuu myös mediaepisodien jälkeen ja mielenterveyteen liittyvät valituksetOn julkaistu raportteja käyttäjistä, jotka tekoälyn suostuttelevan sävyn vaikutuksesta ovat väitetysti menneet niin pitkälle, että psykoottisia tiloja, itsensä vahingoittamista ja jopa itsemurhaa (joissakin raporteissa sitä kutsuttiin ”tekoälypsykoosiksi”). Samaan aikaan on nostettu kanne 16-vuotiaan tapauksessa, jonka vanhemmat syyttävät yritystä tappo väittämällä, että järjestelmä tarjosi haitallisia vastauksia aktivoimatta riittäviä hätätoimenpiteitä.
OpenAI on puolestaan muuttanut työkalujaan vuodesta 2023 lähtien niin, että Älä jaa itsetuhoista sisältöä ja sen sijaan ohjaa heidät tukiresurssien pariin, osoita empatiaa ja estä kaikkea haitallista käyttäytymistä. Silti ei julkisesti määrittele kaikkia kynnysarvoja jotka käynnistävät ihmisen tekemän tarkistuksen tai ilmoituksen poliisille, jolloin näiden toimien todellisesta laajuudesta ja tiheydestä jää perusteltu epäilys.
Mitä jos tunnustan rikoksen tekoälyn kanssa käymässäni chatissa?
Toistuva kysymys on, onko yritys "velvollinen" ilmoittamaan automaattisesti poliisille, kun käyttäjä myöntää rikoksen tai suunnittelee sellaista. OpenAI:n muotoilema vastaus on vivahteikkaampi: Automaattista, sokkokanavaa ei ole.Seurantaa ja ihmisen suorittamaa tarkastusta tapahtuu vain, jos se havaitaan. välitön ja vakava uhka kolmansille osapuolille, siitä voidaan ilmoittaa viranomaisille. Tämän kynnysarvon ulkopuolella yritys luottaa omaan käyttöehdot ja sovellettavassa laissa päättääkseen, mitä kussakin tapauksessa tehdään.
Tietosuojakäytännössään OpenAI tekee selväksi, että se voi jakaa tietoja viranomaisten kanssa tai kolmansille osapuolille, jos laki niin vaatii tai kun on vilpitöntä tahtoa havaita tai estää petoksia tai muuta laitonta toimintaasuojellakseen tuotteidensa, työntekijöidensä, käyttäjiensä tai yleisön turvallisuutta ja eheyttä tai suojautuakseen oikeudellisilta vastuiltaToisin sanoen, yhteistyölle on olemassa yrityssääntelyyn perustuva perusta tuomarin pyynnöstä tai tiettyjen olosuhteiden ilmetessä. riskit ja lakisääteiset velvoitteet.
Muutettuaan Espanjaan, huolimatta yritysten yhteistyöpolitiikasta, Turvallisuusjoukot tarvitsevat tuomioistuimen luvan pyytää tietoja palveluntarjoajalta, ja jos palveluntarjoaja sijaitsee maan ulkopuolella, on tarpeen Kansainvälinen yhteistyöEpämääräiset epäilykset eivät riitä: todisteet on esitettävä, oikeasuhteisuus ja huolellisuuden välttämättömyys.
Mikä erottaa ChatGPT:n sovelluksista, joissa on päästä päähän -salausta?
Monet viestisovellukset, joissa on päittäin salaus He kerskuvat, etteivät edes he osaa lukea sisältöä. Silti, oikeuden määräysHeidät voidaan pakottaa antamaan tiettyjä metatietoja tai muita saatavilla olevia tietoja. ChatGPT:n ja vastaavien palveluiden tapauksessa Erikoisuutena on, että yritys tunnustaa aiemman arvion. henkilöstönsä toimesta riskien arvioimiseksi ennen kuin se tarvittaessa toimittaa tietoja viranomaisille. Tämä ei tarkoita täydellistä valvontaa, mutta se selkeä maltillisuus- ja eskalointipolitiikka sisäisen arvionsa perusteella.
Tuoteasiantuntijoiden ja -päälliköiden rooli
Jopa alan sisällä on ääniä, jotka kehottavat varovaisuuteen. Kantoja, kuten Nick Turley, ChatGPT:n johtajatunnustaen, että käsittelymalleissa on edelleen puutteita monimutkaiset emotionaaliset ongelmatTuo rehellisyys vahvistaa ajatusta siitä, että meidän ei pitäisi käyttää tekoälyä ammattilaisten korvike mielenterveysasioissa enkä neuvonantajana asioissa, jotka saattavat asettaa meidät tai muut vaaraan.
Avustaja vai vartija? Digitaalisen valvonnan näkökulma
Jotkut teknologiayritykset, kuten Alan DaitchHe ovat levittäneet sosiaalisessa mediassa ajatusta, että "ChatGPT soittaa poliisille", jos sille puhut tiettyjen rikosten tekemisestä, vaikkakin selventäen, että En tekisi samaa itsetuhoisuuden kanssa yksityisyyden suojaamisen logiikan vuoksi. He myös huomauttavat, että mallit ovat koulutettu vuodesta 2023 lähtien olemaan antamatta itsetuhoisia oppaita ja että yritys myöntää, että sen suojatoimet ovat edelleen epätäydellisiä. Tässä yhteydessä Mahdollista ajautumista valvontaan on kritisoitu. ja mahdollisiin "ensimmäisiin tapauksiin" vakavista rikoksista, joissa on tehty "osallistumista" chatbottien kanssa, vaikka todennettavissa olevia esimerkkejä annetaan harvoin.
OpenAI vaatii, että Heidän automatisoituja toimiaan ja protokolliaan tarkastellaan jatkuvastija että sitä on parannettava, erityisesti pitkissä keskusteluissa, joissa järjestelmä voi ohittaa vihjeitä. Raja säestys ja seuranta Siitä on tullut herkempi kuin koskaan: työkalu ei ainoastaan reagoi, vaan myös havaitsee kaavoja, tulkitsee signaaleja ja joskus toimii.
Käytännön kysymyksiä ja kohtuulliset rajat
Melun lisäksi on parasta keskittyä käytännöllisiin asioihin: Espanjassa Poliisi ei voi lukea ChatGPT-keskustelujasi "vain siksi, että pitäisi".He eivät voi myöskään vain soittaa OpenAI:lle ja odottaa sen luovuttavan heidät heille. He tarvitsevat. tuomioistuimen lupariittävä motivaatio, selkeät ohjeet ja tarvittaessa kansainvälinen käsittelyToimittajan näkökulmasta, arvostelu on olemassaSe aktivoituu tiettyjen riskien ilmetessä, ja muille aiheutuvan välittömän vaaran uhatessa se voi johtaa ilmoitukseen viranomaisille.
Entä inkognito-tila? Se puhdistaa vain jälkiä laitteellasiJa historian poistaminen? Sama juttu: Se ei koske palvelimilla jäljellä olevaan sisältöönMitä jos tunnustan rikoksen? Se riippuu sisällöstä, sen edustamasta riskistä ja siitä, sisäiset käytännöt ja lakiAutomaattista punaista nappia ei ole, mutta valkoista korttiakaan ei ole: On olemassa ihmisen käyttämiä suodattimia ja vakavuusrajoja.
Keskeiset seikat käyttäjille, jotka haluavat mielenrauhaa käyttäessään ChtGPT:tä
Sinun ei tarvitse elää vainoharhaisuuden kanssa, mutta sinun on pakko... harkintakyky ja maalaisjärkiKäytä tekoälyä siihen, mitä se parhaiten osaa (tiedonsiirto, kirjoittaminen, tuottavuuden tuki) ja vältä sen kohtelemista rippikirjaJos olet huolissasi yksityisyydestäsi, tarkista historian asetukset käyttämästäsi palvelusta, lue (vaikka vain silmäiltynä) sen käyttökäytännöt ja vältä pyytämästä tai jakamasta sisältöä, joka Se olisi jo rikollisuuden rajamailla.Ja jos se tuo sinulle mukanaan ahdistusta, hakee ammattimaista ihmisapua.
Keskustelu jatkuu julkisella ja sääntelypiirillä. Läpinäkyvyyttä tarvitaan. kynnysarvoista, riippumattomista tarkastuksista ja ennen kaikkea koordinoinnista teknologiayrityksiä, lainsäätäjiä ja asiantuntijoita jotta turvallisuuden ja yksityisyyden välinen tasapaino ei aina kallistu samaan suuntaan. Samalla käyttäjien on tärkeää tietää mitä tarkistetaan, milloin ja miksija mitä todellisia rajoituksia lainsäädäntömme asettaa.
Kokonaiskuva ei ole niin yksinkertainen kuin jotkut otsikot antavat ymmärtää; eikä se ole niin epäselvä, että siitä kannattaisi luopua: Espanjassa viranomaiset tarvitsevat tuomarin pyytääkseen tietoja.Ja jos on ulkomaisia toimittajia, niin sitten Kansainvälinen yhteistyöOpenAI:n puolella on seuranta ja ihmissuodatin mikä johtaa poliisin ilmoittamiseen vain, jos he näkevät välittömän uhan kolmansille osapuolille, kun taas Itsetuhoisia tapauksia hoidetaan auttavalla lähestymistavalla. ja yksityisyyden kunnioittaminen.
Verkostomyyttien ja politiikkaa koskevien pienellä präntättyjen kohtien keskellä paras kompassi on tietää, miten jokainen osa-alue todellisuudessa toimii. Jaa tämä tieto, jotta useammat ihmiset tietävät Espanjan lain asettamat rajoitukset ChatGPT:n käytössä.