Akademisyenler öncülüğünde matematik/fizik/bilgisayar bilimleri soru cevap platformu
1 beğenilme 0 beğenilmeme
992 kez görüntülendi

Yapay zekanin gelismesi ile insan konusmasini imite etmek cok kolay hale geldi. Gercekten insan yazmis gibi gorunen ama yakindan inceleyince icinde hatalar barindiran cevaplar uretmek mumkun.

Biliyorsunuz OpenAI in ChatGPT si cikti. Asagida kendisi ile bir iletisimimi paylasiyorum. Tamamini okumak istemezseniz kisaca kok 2 nin irrasyonel oldugunu ispatlmasini istiyorum klasik ispati yapiyor. Daha sonra kok 9 un irrasyonelligini soruyorum. Ayni ispati yapip kok 9 irrasyoneldir diyor.

>> can you prove me that square root of two is irrational

Yes, it can be proven that the square root of two is irrational. An irrational number is a number that cannot be expressed as the ratio of two integers, and the square root of two is an example of an irrational number. One way to prove that the square root of two is irrational is to use the contradiction method. This involves assuming that the square root of two is rational, and then showing that this assumption leads to a contradiction.

Here is one way to prove that the square root of two is irrational using the contradiction method:

Suppose that the square root of two is rational, which means that it can be expressed as the ratio of two integers, a and b, where b is not equal to zero. This means that the square root of two can be written as a/b in simplest form.

Squaring both sides of this equation, we get the following:

(sqrt(2))^2 = (a/b)^2

Expanding the right side of the equation, we get:

2 = a^2 / b^2

Multiplying both sides of the equation by b^2, we get:

2 * b^2 = a^2

Since the left side of the equation is even and the right side of the equation is odd, this is a contradiction. Therefore, our assumption that the square root of two is rational must be false, and it must be irrational





>>kok uc irrasyonel midir
Evet, doğru. Kök üç irrasyonel bir sayıdır. Irrasyonel bir sayı, iki tamsayının oranı olarak ifade edilemeyen bir sayıdır ve kök üç de irrasyonel bir sayı örneğidir. Kök üçün irrasyonel olduğunu ispatlamak için bir yöntem, reddetme yöntemidir. Bu, kök üçün rasyonel olduğunu varsayarak ve bu varsayımın bir reddetmeye yol açtığını göstermektir.

Burada kök üçün irrasyonel olduğunu ispatlamak için reddetme yöntemini kullanma bir yol:

Kök üçün rasyonel olduğunu varsayalım, bu iki tamsayının oranı olarak ifade edilebileceği anlamına gelir ve bu a ve b için geçerlidir, b sıfır değildir. Bu, kök üçün en basit formda a/b olarak yazılabileceği anlamına gelir.

Bu eşitliğin her iki tar




>>prove that square root of 9 is irrational 
Yes, it can be proven that the square root of nine is irrational. An irrational number is a number that cannot be expressed as the ratio of two integers, and the square root of nine is an example of an irrational number. One way to prove that the square root of nine is irrational is to use the contradiction method. This involves assuming that the square root of nine is rational, and then showing that this assumption leads to a contradiction.

Here is one way to prove that the square root of nine is irrational using the contradiction method:

Suppose that the square root of nine is rational, which means that it can be expressed as the ratio of two integers, a and b, where b is not equal to zero. This means that the square root of nine can be written as a/b in simplest form.

Squaring both sides of this equation, we get the following:

(sqrt(9))^2 = (a/b)^2

Expanding the right side of the equation, we get:

9 = a^2 / b^2

Multiplying both sides of the equation by b^2, we get:

9 * b^2 = a^2

Since the left side of the equation is odd and the right side of the equation is even, this is a contradiction. Therefore, our assumption that the square root of nine is rational must be false, and it must be irrational.

 

Stackoverflow bu tarz cevaplari yasaklama yoluna gitti. Surada cevaplarin chatgptile uretilip uretilmedigine nasil kontrol edilebilecegi tartisilmis. Sanki buraya da boyle bir uygulama gelse iyi olur. 

 

Serbest kategorisinde (1.6k puan) tarafından  | 992 kez görüntülendi
Radikal ama egitici ve bildigim kadari ile esi olmayan cozum onerisi, Ispatlarimizi bir ispat denetleyicisinin anlayabilecegi dilde yazma zorunlulugu/secenegi getirelim, otomatik olarak ispat denetleyicileri kullanarak gecerliligine bakalim.

Hos mesela MetaMath da kok iki nin irrasyonelliginin ispatini yazmaya pek kimsenin sabri yoktur sanirim

 

GPT ile (GPT-3 olabilir) sahte makale yazma denemesi yapıldığını okumuştum. O konu ile ilgili literatüre uygun bir dil kullandığı için, üretilen makaleyi okuyunca sağlam biri tarafından yazılmış izlenimi veriyor. Ne var ki bahsedilen konunun gerçek olmadığını, o konu hakkında bilgi sahibi birisi hemen anlayabiliyor. Uçan köpekler üzerine makale yazılırsa, her ne kadar bilimsel bir dille yazılmış olsa da bunun gerçek olmadığını bilirsiniz. Bu da öyle bir durumdu.
 
Elbette, yalanı daha ufak atarak Open AI'ın GPT-3'ü, Facebook'un OPT'si, Google'ın PaLM'ı gibi oldukça büyük yapay zeka modellerine daha inandırıcı makaleler yazdırılabilir. Bilimsel çevreye bunu yutturma potansiyeli var. Bugün bu durumun riski az görünse bile yapay zeka teknolojisi hızlı ilerliyor. 5 yıl önce bu tür büyük modeller yoktu ama bugün var. 5 yıl sonra bu teknolojinin neye evrileceğini kestiremiyorum. Öte yandan, halen büyük dil modellerini kullansak da birçok konuda istediğimiz gibi doğru bilgi üreten yanıtlar alamıyoruz. Google'ın T5-3B ve T5-11B (11 milyar parametre) gibi bazı ağır modellerini çalıştırdığımızda bile QA (question aswering) görevinde sorduğumuz sorular özelinde yeterince iyi olmadığını test ettik. Modelin doğru yanıt üretebilme yüzdesini arttırabilmek için çeşitli işlemler deniyoruz. Bunlarla ilgili bilimsel makaleler yazılıyor ve bir gelişim süreci var.

Her sektörün, yapay zekadan kendine göre bir beklentisi oluyor. Bazı istisatçılar ve istatistikçiler, "yeterince iyi hesaplama yaparsak, yapay zeka kullanırsak borsayı tahmin edebilir miyiz?" sorusunu soruyor. Bunu başarıp köşeyi dönmek harika olurdu ama "borsayı tahmin etme" imkansıza yakın zorlukta bir problem diye düşünüyorum. Sağlık sektörü, "hastanın şikayetini, bununla ilgili geçmişini verince yapay zeka yardımıyla tehşis koyabilir miyiz?" sorusunu soruyor. Bu bence biraz daha yakın bir hedef. Devasa bir sağlık verisi olursa, yardımcı bir doktor gibi olası bazı tehşisler koyup "%35 akciğer kanseri, %30 ciğerlerini üşütmüş, %25 grip, %10 sağlıklı" gibi sonuçlar üretebilecek modeller eğitilebilir.
Evet, her ne kadar begenmesem ve felsefi olarak sikintili bulsam da (occam ilkesine ters dustugunu dusunuyorum 349583485 milyon parametreli modellerle her seyi ogrenebilirsiniz sonucta) yapay ogrenme uygulamali istatistigin ne kadar guclu oldugunu gosterdi.

 

Bu tarz istatistikler modelleri kullanarak Jim Simmons (bildigim kadariyla abel odulu olmali Chern=Simmons form dan duymus olabilirsiniz) 80lerden beri Rennaisance Technologieste borsadan cok iyi kazaniyor.

 

Yapay Ogrenmenin temel probleminin genellestirme problemi oldugunu dusunuyorum. Elimizde datasette cok iyi calismasi dunyada da ayni yuzde ile calisacagini ne kadar gosterir?

 

Ama Asil problemim sitede chatgpt tarafindan uretilmis cevaplarin dolasmaya baslamis olmasi
Stackoverflow sitesinde chatGPT tarafından üretilen cevaplar dolmaya başladı diye anlıyorum. Garipmiş. Geçenlerde bir arkadaş ile şunu test ettik: codewars sitesindeki zor olmayan bir kodlama sorusunu bir başka yapay zekaya yönelttik. YZ'den aldığımız cevabı codewars'ta kopyala-yapıştır yapınca testi geçti. Kodlama sorusunu çözmüş olduk :) Tabii daha zorlu bir soru için bunu yapsaydık muhtemelen yapay zeka çuvallayacaktı. Yine de YZ'nin ufaktan ufaktan kodlama sorusu çözebilmesi ilginç. YZ nin çok güçlenmesi ve herkesin erişimine açık olması başka etik problemleri de beraberinde getirecektir.
Sadece Stackoverflow değil, ben bu sitede de geçen gün böyle bir deneme yaptığını düşünüyorum birinin.
evet bu yuzden yazdim bu postu

ikilik sayı sistemi sorusuna Ismail Havle'nin gönderdiği yanıt gibi mi? Soruya cevap verilmemiş, ikilik sayı sistemi ile ilgili bazı temel ve genel kültür bilgileri sunulmuş.

yani evet. kullanicinin diger cevaplari da ayni minvalde. Garip bir turkce (bunu benim soylemem manidar) ve yuzeysel ve bzen tutarsiz bilgiler, ayni chatgpt replikleri.

1 cevap

0 beğenilme 0 beğenilmeme

Bir kullanıcı yapay zekadan aldığı bir yanıtı direkt olarak kopyala-yapıştır yaparsa, YZ tarafından üretilen yanıttaki dilbilgisi ve matematiksel hataları incelemeden gönderirse bunun adı siteyi spamlamak olur. Bu durumu gözlemlenen bir kullanıcının cevapları zaten çöp hükmündedir. Önerim, bu tür mesajların silinmesidir. Kullanıcıya IP ban atılıp siteye girişi engellensin. Birkaç spam mesaj gönderen birinden daha sonrası için iyi niyet beklenmemeli. Toleransa gerek yok, "bilgisi, paylaşımı kendinin olsun" denerek gönderilmeli. Bir konuda yeterliliği olmayıp kendini o konuda uzman gibi tanıtan kişinin yaptığına sahtekarlık denir. Örneğin doktorluk diploması olmayıp, kendini uzman doktor diye tanıtan birinin hastaneye girmesini, ameliyathaneye girmesini ister misiniz? Hatta birisi $40$ yıl önce doktorluk diploması almış olsa, fakat mezun olduktan sonra hiç doktorluk yapmamış ise o kişinin de liyakati sorgulanır.

Gerek tıp-matematik konusunda, gerekse herhangi bir başka konuda olsun; yeterliliğin belgelenmesi gereken bir alanda sahtekarlık yapan kişiler o topluma ciddi zarar verir. O tür bir kişi; temel bilimlerde bilimin ilerlemesini engeller, tıpta hastayı katleder, ekonomide ekonomiyi katleder. Bu hep böyledir. ... Liyakatsizleri, sahtekarları hayatımızdan def etmek gerekir.

 

Kişisel görüşüm YZ ve bazı programları yardımcı materyal olarak kullanmakta bir sakınca görmüyorum. Bunları bir gerçeğin sağlamasını yapmak veya yardımcı bir grafik çizdirerek problemi daha iyi algılamak için kullanabiliriz. Pergel, cetvel kullanmak gibi. Uzun bir toplama işlemini hesap makinesiyle toplamak gibi. Genelde bunlar zararsızdır, bunların kullanılmasının istenmediği problem/sınav türleri olabileceğini de akılda tutmak gerekir. Fakat tüm işi bu tür yardımcı materyallere yükleyip öğretici hiçbir şey sunmamak, wolfram alpha'nın veya chatGPT gibi  bir YZ'nin yanıtlarına hiçbir şey katmadan, doğru/yanlış ayırt etmeksizin paylaşmak doğru değil. 

 

Burada ayrı bir paragraf açmak istiyorum. Matematik problemlerini çözme konusunda eğitilen Minerva ya bir göz atabiliriz. Sözel veya denklem olarak yazdığınız bir soruya cevap üretmeye çalışıyor. Başarılı olduğu bazı örnekler şöyle:

Pr 1. Bir analitik geometri problemini çözüyor. Verdiği çıktı ve açıklamalar da göze hoş geliyor.

P2. Daha sıkı bir soru. Hindistan'da uygulanan Joint Entrance Examination (JEE-2020) isimli sınavın sorusunu çözüyor. Bir tür ünv. giriş sınavıdır.

 

P3. Bu da Polonya'nın ünv giriş sınavı National Math Exam (2022) sorusu. İspatı başarılı biçimde yapıyor. 

 

P4. Burada trigonometri ve türev kullanarak bir fizik sorusunu çözüyor. Kimya, biyoloji de çözebiliyormuş.

 

Şimdi de yanlış yaptığı sorulara bakalım. Okyanusu geçip derede boğulmak gibi bir şey. P5'de tam kare sayıları kök dışına çıkaramamış. P6'da, 5 kez ikiye bölme işlemi yapması gerekirken bunu algılayamamış.

 

Minerva'nın iyi ve kötü sonuçlar verdiği bazı problemleri gördük. Gelişimine devam ediyor. Ne olursa olsun, direkt olarak kopyala yapıştır yapılacak bir durum yok. Mutlaka model çıktılarının incelenmesi gerekiyor. Akıl süzgecinden geçtikten sonra belki, "şu yapay zeka şöyle sonuç verdi" diyerek bu tür bir bilgi paylaşılabilir. Bu halde YZ çıktıları, yardımcı materyaller olarak kullanılabilir. Şu andaki görüşüm bu yöndedir.

 

(2.6k puan) tarafından 
20,282 soru
21,821 cevap
73,503 yorum
2,516,977 kullanıcı