W college'u miałem nauczyciela teorii złożoności, który stwierdził, że sztuczna inteligencja jest sprzecznością pod względem. Argumentował, że jeśli można to obliczyć mechanicznie, to nie inteligencja, tylko matematyka.
To wydaje się być wariantem argumentu Chińskiego Pokoju. Ten argument jest metaforą, w której osoba umieszczana jest w pokoju pełnym chińskich książek. Ta osoba nie rozumie ani słowa po chińsku, ale pod drzwiami wślizguje się po chińsku. Osoba musi użyć książek, które zawierają reguły transformacji, aby odpowiedzieć na te wiadomości. Osoba może zastosować reguły transformacji, ale nie rozumie, co komunikuje.
Czy podtrzymuje się argument chińskiego pokoju? Czy możemy argumentować, że sztuczna inteligencja jest jedynie sprytną algorytmią?
źródło
Przede wszystkim, aby uzyskać szczegółowy widok argumentu, sprawdź wpis SEP w chińskim pokoju .
Uważam CRA za wskaźnik twojej definicji inteligencji. Jeśli argument się utrzymuje, tak, osoba w pokoju rozumie język chiński. Podsumujmy jednak trzy odpowiedzi omówione we wpisie SEP:
Sam człowiek nie rozumie chińskiego (nie byłby w stanie go zrozumieć, gdy był poza pokojem), ale system człowiek + pokój to rozumie. Akceptacja tej odpowiedzi sugeruje, że może istnieć inteligentny system, którego części same w sobie nie są inteligentne (co można argumentować o samym ludzkim ciele).
System nie rozumie chińskiego, ponieważ nie może wchodzić w interakcje ze światem w taki sam sposób jak robot lub człowiek (tzn. Nie może się uczyć, jest ograniczony zestawem pytań, na które może odpowiedzieć)
System nie rozumie chińskiego (w zależności od twojej definicji rozumienia ) i nie można powiedzieć, że człowiek wykonuje te same wyczyny, co chiński pokój rozumie chiński.
Czy więc argument lub jego wariant zależy od twoich definicji inteligentnego , rozumienia , od tego, jak definiujesz system itp. Chodzi o to, że eksperyment myślowy jest dobrym sposobem na rozróżnienie definicji (i wielu, odbyło się wiele debat na ich temat), aby uniknąć rozmawiania bez końca.
źródło
Zależy od kogo pytasz! John Searle, który zaproponował ten argument, powiedziałby „tak”, ale inni powiedzieliby, że jest to nieistotne. Test Turinga nie określa, że maszyna musi „rozumieć” to, co robi, o ile wydaje się to w ten sposób człowiekowi. Można argumentować, że nasze „myślenie” jest tylko bardziej wyrafinowaną formą sprytnego algorytmu.
źródło