DOLAR

34,2592$% 0.04

EURO

37,6045% -0.13

STERLİN

44,7678£% -0.55

GRAM ALTIN

2.927,14%0,20

ÇEYREK ALTIN

4.972,00%-0,44

TAM ALTIN

19.826,00%-0,44

ONS

2.656,96%0,14

BİST100

9.154,89%0,50

BİTCOİN

2157087฿%1.9508

LİTECOİN

2269.73Ł%-1.15261

ETHEREUM

83806Ξ%1.51835

RİPPLE

18.22%0.96417

TETHER

34.25$%0.37996

İmsak Vakti a 02:00
İstanbul PARÇALI AZ BULUTLU 20°
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Amasya
  • Ankara
  • Antalya
  • Artvin
  • Aydın
  • Balıkesir
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkâri
  • Hatay
  • Isparta
  • Mersin
  • istanbul
  • izmir
  • Kars
  • Kastamonu
  • Kayseri
  • Kırklareli
  • Kırşehir
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Kahramanmaraş
  • Mardin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Şanlıurfa
  • Uşak
  • Van
  • Yozgat
  • Zonguldak
  • Aksaray
  • Bayburt
  • Karaman
  • Kırıkkale
  • Batman
  • Şırnak
  • Bartın
  • Ardahan
  • Iğdır
  • Yalova
  • Karabük
  • Kilis
  • Osmaniye
  • Düzce
a

Microsoft Bing yapay zekaya karakter tercihleri geldi! İşte seçenekler

Yapay zekanın gelişmesiyle birçok teknoloji şirketi, bu konuda değişikliğe gitti. Microsoft da kısa önce arama motoru Bing’e yapay zeka ekledi. Microsoft, şimdi de Bing üzerindeki yapay zekanın kişilik değiştirmesi için kullanıcılara izin verecek. Peki, bu nasıl olacak ve seçenekler neler? Haberin detaylarına hep birlikte göz atalım.
Microsoft Bing yapay zekanın kişiliği, farklı seçeneklerde tercih edilecek
Microsoft, kullanıcıların Bing üzerindeki yapay zekanın kişiliği üzerinde daha fazla kontrol sahibi olacağını belirtmişti. Bugün Microsoft sorumlularından Mikhail Parakhin, Twitter hesabından yaptığı açıklamada bununla ilgili değişiklik yaptıklarını açıkladı.

Now almost everyone – 90% – should be seeing the Bing Chat Mode selector (the tri-toggle). I definitely prefer Creative, but Precise is also interesting – it’s much more factual. See which one you like. The 10% who are still in the control group should start seeing it today.— Mikhail Parakhin (@MParakhin) March 1, 2023
Bu açıklamaya göre Microsoft Bing kullanıcıları, yapay zeka ile iletişim kurmadan önce karakter tercihinde bulunabilecek. Böylece yapay zekanın konuşma üslubu da kişiliğine göre değişkenlik gösterecek.

Tarayıcı rekabeti kızışıyor: Microsoft’un koltuğu sallantıda!

Statcounter, internet tarayıcısı pazarına ait güncel bir rapor yayınladı. Bu rapora göre en popüler ikinci tarayıcı unvanı tehlikede.

Kişiliklerin arasında yaratıcı, dengeli ve kesin modları yer alıyor. Yaratıcı modda özgün ve eğlenceli cevaplar, olgusal modda daha olgun ve özlü sözleri içeren cümleler, kesin modda ise daha sınırlı ve tekdüze cevaplar var.
Öte yandan bu modların gelmesi kullanıcıların yapay zekanın kullanım alanına göre değişkenlik gösterecek. Yapayı zekayı sadece eğlence amaçlı kullanan biri, eğlenceli modu seçerken herhangi bir konuyla ilgili araştırma yapacak bir başka kullanıcı ise kesin modu seçebilir.
Mikhail Parakhin, konuyla ilgili açıklamasında henüz bu özelliğin yeni sunulmaya başladığını ve kademeli olarak herkeste açılacağını belirtti. Şu anda yüzde 90 Bing kullanıcısı, kişilik ayarını yapıyor.
Öte yandan Microsoft, Bing üzerine ilk kez yapay zeka entegre ettikten sonra garip yanıtları nedeniyle dikkat çekti. Firma, garip yanıtlar veren yapay zekaya bu durumdan dolayı birtakım sınırlandırmalar getirmişti. Firma, şimdi ise yavaş yavaş bu sınırları kaldırarak yapay zekayı takip ediyor.
Siz okuyucularımız bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi Yorumlar kısmında belirtebilirsiniz.

YORUMLAR

s

En az 10 karakter gerekli

Sıradaki haber:

Xiaomi ve Google, akıllı saat için güçlerini birleştiriyor!

HIZLI YORUM YAP

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.