Kafka restartında Memory Allocation Error Hatası

Kafka restartında Memory Allocation Error Hatası

Kafka başlarken aşağıdaki gibi bir hataya düştüğünde ki bu normalde olmuyorsa ama topic sayınız arttı ise genelde olur , bu durumda aşağıdaki çözümü uygulayabilirsiniz.

Java HotSpot(TM) 64-Bit Server VM warning: Attempt to protect stack guard pages failed.
Java HotSpot(TM) 64-Bit Server VM warning: Attempt to deallocate stack guard pages failed.
[] INFO [TransactionCoordinator id=3] Startup complete. (kafka.coordinator.transaction.TransactionCoordinator)
Java HotSpot(TM) 64-Bit Server VM warning: INFO: os::commit_memory(0x00007f4e0ff1b000, 12288, 0) failed; error='Cannot allocate memory' (errno=12)
#
# There is insufficient memory for the Java Runtime Environment to continue.
# Native memory allocation (mmap) failed to map 12288 bytes for committing reserved memory.
# An error report file with more information is saved as:
# /opt/kafka/bin/hs_err_pid1234.log
Java HotSpot(TM) 64-Bit Server VM warning: INFO: os::commit_memory(0x00007f4eed723000, 262144, 0) failed; error='Cannot allocate memory' (errno=12)
[thread 139981501064960 also had an error]
Java HotSpot(TM) 64-Bit Server VM warning: INFO: os::commit_memory(0x00007f4fe5cc0000, 65536, 1) failed; error='Cannot allocate memory' (errno=12)
[thread 139980200949504 also had an error]

Linux sysctl ayarlarınızda vm.max_map_count değerini arttırmalıyız.

sysctl -w vm.max_map_count= #ön tanımlı değeri 65536
Aşağıdaki değeri basabiliriz.
sysctl -w vm.max_map_count=262144
Aktif olması için sysctl -p komutunu kullanabilirsiniz.

Ayhan ARDA

Linux NFS Share ve Mount Nasıl Yapılır?

Linux NFS Share ve Mount Nasıl Yapılır?

Bazen sunucularımız arasında ortak bir klasör paylaşmak isteriz , bu durumda paylaşımı yapacak bir sunucu/klasör ve oraya erişmek isteyen client’lar olmalı. Bi sunucumuzu nfs server olarak yapılandırmakla başlayalım

Öncelikle nfs-utils paketini kurmalıyız.

yum install -y nfs-utils

Sonrasında bir paylaşım klasörü oluşturalım, aşağıdaki ismi ya da path’i değiştirebilirsiniz.

mkdir /var/nfspaylasimi

Şimdi bu klasöre herkesin yazabilmesi için yetkilerini değiştirelim.

chmod -R 755 /var/nfspaylasimi
chown nfsnobody:nfsnobody /var/nfspaylasimi

İlgili servisleri başlatalım

systemctl enable rpcbind
systemctl enable nfs-server
systemctl enable nfs-lock
systemctl enable nfs-idmap
systemctl start rpcbind
systemctl start nfs-server
systemctl start nfs-lock
systemctl start nfs-idmap

Şimdi ise bu klasörlere hangi ip lere sahip clientlar eerişecek ve ne haklarda erişecek bunları tanımlamamız gerekiyor , favori editorünüz ile aşağıdaki dosyayı açalım.

nano /etc/exports

İçini aşağıdaki şekilde doldurabiliriz. Birden fazla sunucu erişecek ise her biri alt alta gelecek şekilde kayıt girebilirsiniz. Ip adresleri erişecek clientların ip adresleridir.

/var/nfsshare    10.20.30.22(rw,sync,no_root_squash,no_all_squash)

Kaydetti isek nfs serverı yeniden başlatabiliriz.

systemctl restart nfs-server

Bir firewall kullanıyorsanız ilgili protokollere izin verebilirsiniz , sunucuda fw kullanmıyor iseniz gerek olmayacaktır.

firewall-cmd --permanent --zone=public --add-service=nfs
firewall-cmd --permanent --zone=public --add-service=mountd
firewall-cmd --permanent --zone=public --add-service=rpc-bind
firewall-cmd --reload

Peki Client’lar nasıl erişecek.

Yine aynı şekilde nfs-utils paketini client sunuculara kurmalıyız.

yum install -y nfs-utils

Bir mount klasörü oluşturalım , buraya yazdığımızda aslında server tarafındaki klasöre yazacak , yine ismi ve path’i değiştirebilirsiniz. Mount işlemlerden bağlama işleri genelde /mnt altına yapılır.

mkdir -p /mnt/nfspaylasimi

Şimdi bağlantıyı geçici olarak test etmek için aşağıdaki komutu girelim , tabi sunucuların birbirine erişebildiğini varsayıyoruz.

mount -t nfs 10.20.30.22:/var/nfspaylasimi /mnt/nfspaylasimi

Kontrol etmek için df -h komutunu kullanabilirsiniz.

[[email protected] mnt]# df -h
Filesystem                                 Size  Used Avail Use% Mounted on
10.20.30.22:/var/nfspaylasimi             10G  2.0G  8.1G  20% /mnt/nfspaylasimi

Şimdi client sunucuda /mnt/nfspaylasımı altında bir dosya yaratalım ve sunucuda görebilecek miyiz test edebiliriz.

cd /mnt/nfspaylasimi && touch ayhanarda.txt

Her şey ok ise işlemi kalıcı hale getirmeliyiz yani sistem boot olduğunda tekrar otomatik olarak mount işlemini yapmalı. Favori editorünüz ile aşağıdaki dosyayı açınız.

nano /etc/fstab

İçine yeni bir satır ekleyerek aşağıdaki kaydı giriniz , ip ve path’leri değiştirmeyi unutmayınız.

//ayhanarda
10.20.30.22:/var/nfsshare    /mnt/nfs/var/nfsshare   nfs defaults 0 0

Hepi bu kadar, umarım faydalı olur.

Ayhan ARDA

Prometheus Node Exporter Kurulumu

Prometheus Node Exporter Kurulumu

Node exporter’ı linux sunucularımızda ki metricleri elde etmek için kullanırız.

Kurmadan önce prometheus kurulu olmalı, bunun için prometheus kurulumu isimli yazımızı inceleyebilirsiniz. Sonrasında network tarafında 9100 nolu port izinli olmalı ancak tabii ki farklı bir portta kullanabilirsiniz.

Öncelikle /tmp dizinine geçip dosyamızı indiriyoruz.

cd /tmp
curl -LO 
https://github.com/prometheus/node_exporter/releases/download/v1.3.1/node_exporter-1.3.1.linux-amd64.tar.gz

Dileseniz indirmek için prometheus download sayfasına da göz atabilirsiniz.

node exporter download

Şimdi indirdiğimiz dosyayı açıp /usr/local/bin/ içinde gönderelim

tar -xvf node_exporter-1.3.1.linux-amd64.tar.gz
mv node_exporter-1.3.1.linux-amd64/node_exporter /usr/local/bin/

Node exporter için bir user oluşturalım.

useradd -rs /bin/false node_exporter

Node Exporter için bir servis oluşturmalıyız, aşağıdaki dosyayı oluşturalım ve içini daha aşağıdaki şekilde doldurup kaydedelim.

vi /etc/systemd/system/node_exporter.service
[Unit]
Description=Node Exporter
After=network.target

[Service]
User=node_exporter
Group=node_exporter
Type=simple
ExecStart=/usr/local/bin/node_exporter

[Install]
WantedBy=multi-user.target

Şimdi servisi başlatabiliriz.

sudo systemctl daemon-reload
sudo systemctl start node_exporter

sudo systemctl status node_exporter
sudo systemctl enable node_exporter

Buraya kadar hata almadı iseniz http://sunucunuzunipadresi:9100/metrics adresinde metricleri görüyor olmalısınız.

Şimdi prometheus’un yaml dosyasına node exporter ı tanımlayabiliriz.

vi /etc/prometheus/prometheus.yml

Dosyanın en altına aşağıdaki şekilde ekleyebilirsiniz. İp adresini değiştirmeyi unutmayınız, node exporter local de ise localhost şeklinde de yazabilirsiniz.

- job_name: 'node_exporter_metrics'
  scrape_interval: 5s
  static_configs:
    - targets: ['IPADRESI:9100']

Şimdi tanımların geçerli olabilmesi için bu kez prometheus servisini restart edelim.

systemctl restart prometheus
prometheus targets

Artık prometheus da linux sunucunuzun metriklerini görmeye hazırsınız.

Ayhan ARDA

Prometheus Kurulumu

Prometheus Kurulumu

Prometheus açık kaynaklı, pull temelli monitöring aracıdır. Çok hafif ve iyi bir uyarı mekanizmasına sahiptir. Centos/rhel tabanlı dağıtımlarda aşağıdaki gibi kurabilirsiniz.

https://prometheus.io/download/ adresinden şu an güncel sürüm olan 2.34 ü indireceğiz.

Prometheus download

Başlamadan önce eğer root değilseniz sudo kullanabilir olduğunuza emin olunuz, networkünüzde prometheus un default portu olan 9090 portu için bir engel olmamalı , dilerseniz farklı bir boş port kullanabilirsiniz. Prometheus’u indirebilmek için kuracağınız sunucu internete açık olmalı , eğer internet erişiminiz yok ise farklı bir sunucudan ilgili dosyayı indirip kuracağınız sunucuya aktarabilirsiniz.

Aşağıdaki şekilde indirip, açıp klasörün adını değiştirelim. Ben işlemi /home dizini içindeyken yapıyorum, Siz dilediğiniz path’te yapabilirsiniz.

cd /home
curl -LO url -LO https://github.com/prometheus/prometheus/releases/download/v2.34.0/prometheus-2.34.0.linux-amd64.tar.gz
tar -xvf prometheus-2.34.0.linux-amd64.tar.gz
mv prometheus-2.34.0.linux-amd64 prometheus-files

Şimdi prometheus kullanıcısı ve dizinlerini oluşturup haklarını verelim.

sudo useradd --no-create-home --shell /bin/false prometheus
sudo mkdir /etc/prometheus
sudo mkdir /var/lib/prometheus
sudo chown prometheus:prometheus /etc/prometheus
sudo chown prometheus:prometheus /var/lib/prometheus

Şimdi binary’leri /usr/local/bin ‘ e kopyalayıp izinlerini değiştirelim

sudo cp prometheus-files/prometheus /usr/local/bin/
sudo cp prometheus-files/promtool /usr/local/bin/
sudo chown prometheus:prometheus /usr/local/bin/prometheus
sudo chown prometheus:prometheus /usr/local/bin/promtool

Aynı şekilde kütüphaneler için de işlem yapıyoruz.

sudo cp -r prometheus-files/consoles /etc/prometheus
sudo cp -r prometheus-files/console_libraries /etc/prometheus
sudo chown -R prometheus:prometheus /etc/prometheus/consoles
sudo chown -R prometheus:prometheus /etc/prometheus/console_libraries

Şimdi prometheus’un yaml dosyasını oluşturup aşağıdakileri ekleyip kaydedelim. Dilerseniz portu değiştirebilirsiniz.

sudo vi /etc/prometheus/prometheus.yml
global:
  scrape_interval: 10s

scrape_configs:
  - job_name: 'prometheus'
    scrape_interval: 5s
    static_configs:
      - targets: ['localhost:9090']

Kaydedip çıktıysak şimdi sahipliğini değiştirelim.

sudo chown prometheus:prometheus /etc/prometheus/prometheus.yml

Artık bunu bir servis haline getirebiliriz. Aşağıdaki dosyayı oluştuurp açalım ve içine bir altında yazanlarıkopyalayıp kaydedelim.

vi /etc/systemd/system/prometheus.service
[Unit]
Description=Prometheus
Wants=network-online.target
After=network-online.target

[Service]
User=prometheus
Group=prometheus
Type=simple
ExecStart=/usr/local/bin/prometheus \
    --config.file /etc/prometheus/prometheus.yml \
    --storage.tsdb.path /var/lib/prometheus/ \
    --web.console.templates=/etc/prometheus/consoles \
    --web.console.libraries=/etc/prometheus/console_libraries

[Install]
WantedBy=multi-user.target

Systemd servislerini reload edelim ve servisimizi başlatıp çalıştığını kontrol edelim.

sudo systemctl daemon-reload
sudo systemctl start prometheus
sudo systemctl status prometheus

Bir sorun yok ise aşağıdaki şekilde bir sonuç elde görmeliyiz.

Prometheus çalışıyor

Şimdi web arayüzünden erişebiliriz. Görüntü aşağıdaki gibi olmalı.

http://<sunucunuzun-ip-adresi>:9090/graph
Prometheus webui
Prometheus Query

Linux Sunucularda System Servisi Oluşturmak

Linux Sunucularda System Servisi Oluşturmak

/etc/systemd/system/ klasörü içinde bir dosya oluşturuyoruz. Servisimizin adını hatırlatacak şekilde isim verilmesi işimizi kolaylaştıracaktır.

Örneğin grafana.service

Bu dosyanın içinde Servisin tanımını, çalışacağı path’i ve çalışma modlarını tanımlayabilirsiniz. Aşağıda grafana için oluşturduğumuz bir örnek bulunmaktadır.

cat /etc/systemd/system/grafana.service

[Unit]
Description=Grafana Servisi

[Service]
WorkingDirectory=/root/
Type=forking
ExecStart=/bin/bash grafana_start.sh
KillMode=process

[Install]
WantedBy=multi-user.target

Görüldüğü üzere /root dizini içinde grafana_start.sh dosyasını çalıştırması beklenmektedir, Çalıştırdığında oluşan process id yi yazar, servisi stop ettiğinizde bu pid’i kill eder.

Servis dosyamızı oluşturduktan sonra bunu sisteme duyurmak gerekir , aşağıdaki komut ile yapabilirsiniz.

systemctl daemon-reload

Sistemin yeniden başlangıcında çalışması için enable edebilirsiniz.

systemctl enable grafana

Bu sırada servisin çalıştıracağı bash scriptine de göz gezdirelim. /root dizini içinde grafana_start.sh isimli bir dosya oluşturduk. Dosyanın içeriği aşağıdaki gibi.

#!/bin/sh
nohup /opt/Grafana/grafana_7.5.2/bin/grafana-server -homepath /opt/Grafana/grafana_7.5.2/ > /dev/null 2>&1 &

Bash scriptlerin çalışabilmesi için çalışma hakkının olması gerekir. Aşağıdaki şekilde yapabilirsiniz.

chmod +x /root/grafana_start.sh

Şimdi servisimizi start edebiliriz.

systemctl start grafana

Aşağıda start/stop sonuçlarınıi görebilirsiniz.

[[email protected] ~]# ps aux | grep graf | grep -v color
[[email protected]hostrazzi02 ~]#
[[email protected]hostrazzi02 ~]# systemctl start grafana
[[email protected]hostrazzi02 ~]#
[[email protected]hostrazzi02 ~]# ps aux | grep graf | grep -v color
root     62255  4.2  0.0 1199056 42824 ?       Sl   14:18   0:00 /opt/Grafana/grafana_7.5.2/bin/grafana-server -homepath /opt/Grafana/grafana_7.5.2/
[[email protected]hostrazzi02 ~]#
[[email protected]hostrazzi02 ~]# systemctl stop grafana
[[email protected]hostrazzi02 ~]#
[[email protected]hostrazzi02 ~]# ps aux | grep graf | grep -v color
[[email protected]hostrazzi02 ~]#
[[email protected]hostrazzi02 ~]# systemctl start grafana
[[email protected]hostrazzi02 ~]#
[[email protected]hostrazzi02 ~]#
[[email protected]hostrazzi02 ~]# ps aux | grep graf | grep -v color
root     62336  8.0  0.0 1059788 37252 ?       Sl   14:19   0:00 /opt/Grafana/grafana_7.5.2/bin/grafana-server -homepath /opt/Grafana/grafana_7.5.2/
[[email protected]hostrazzi02 ~]#

A ticket for this agent could not have been requested from your deployment endpoint: Ticket salt is not configured in ApiListener object hatası

A ticket for this agent could not have been requested from your deployment endpoint: Ticket salt is not configured in ApiListener object hatası

Icinga2 de Host’a modify deyip Agent’a tıkladığınızda başlıktaki hatayı alabilirsiniz.

TicketSalt girmediğiniz için bu hatayı almaktasınız.

/etc/icinga2/constants.conf dosyanızda muhtemelen en altta aşağıdaki satırı göreceksiniz.

c

/* Secret key for remote node tickets */
const TicketSalt = “Burayıkarışıkdoldurunuz”

örnek : const TicketSalt = “sc6w7rydnc721mfcns612enfd”

/etc/icinga2/features-enabled/api.conf dosyasında da TicketSalt ifadesi geçer, burada değer aşağıdaki gibi kalmalı , aksi halde yukarıdaki salt ile güncellerseniz icinga çalışmaz.

ticket_salt = TicketSalt

Sonrasında icinga2 yi restart etmeyi unutmayınız.

service icinga2 restart

Ayhan ARDA

Gmail POP3 Hesabı Ekleme Hatası [AUTH] Plaintext authentication disallowed on non-secure (SSL/TLS) connections

Gmail POP3 Hesabı Ekleme Hatası [AUTH] Plaintext authentication disallowed on non-secure (SSL/TLS) connections

Linux üzerine plesk kurulu sunucumuzda bir mail hesabını gmail e ekleme çalıştığımızda aşağıdaki hatayı aldığımızı gördük.

[AUTH] Plaintext authentication disallowed on non-secure (SSL/TLS) connections

Kısaca güveli olmayan bağlantılarda şifrenin açık şekilde geldiği için kabul edilmediğine dair hata vardı. Sunucumuzda mail server olarak postfix kullanıyoruz bu smtp görevini yerine getiriyor ancak hata pop3 te yani 110 portunda alınmakta , bu nedenle imap ve pop3 için çalışan dovecot conf u üzerinde işlem yapmamız gerekiyor.

/etc/dovecot/dovecot.conf dosyasını editlemeyi tercih etmediğimizde dovecot un configler için kullandğı klasör üzerinde bir conf dosyası oluşturup işlem yapabiliriz.

Bu nedenle /etc/dovecot/conf.d dizinine ilerleyiniz ve içinde aşağıdaki isimle bir dosya oluşturunuz.

[[email protected] ~]# cd /etc/dovecot/conf.d/
[[email protected] conf.d]# nano 50-gmail.conf

Dosyanın içine aşağıdaki satırı ekleyip servisi yeniden başlatınız.

disable_plaintext_auth = no

/etc/init.d/dovecot restart

Şimdi tekrar kontrol edebilirsiniz.

Bunu kontrol etmek için mutlaka gmail’e ihtiyacınız bulunmamakta. Windows kullanıyorsanız bir command prompt açınız.

İçine telnet mail.alanadı.com 110 yazınız

bağlandığında bir user ile login olmayı deneyiniz , aşağıdaki satırı yazabilirsiniz.

user [email protected]

bu işlem sonunda başlıktaki hatayı alıyorsanız aynı durumu yaşıyorsunuz demektir.

Ayhan ARDA

Debian Command Not Found Hataları

Debian Command Not Found Hataları

Örnek:

[email protected]:~# a2ensite test.ayhanarda.com.conf
bash: a2ensite: command not found

[email protected]:~# reboot
bash: reboot: command not found

[email protected]:~# ufw enable
bash: ufw: command not found

Oturumunuzu normal user ile açıp root kullanıcısına su ile yükseltme yaptığınızda bir çok komutun çalışmadığını görürsünüz , bu nedenle su – komutunu kullanmalısınız , Sonrasında çalışmayan komutlarınızın çalıştığını görebilirsiniz.

[email protected]:~# su –

Avocent Console Cihazlarında Şifre Kurtarma

Bazen kullandığımız cihazlarımızda eskiden tanımlanan şifreleri unutabiliyoruz bu da ihtiyacımız olduğu zamanlarda elimizi bağlıyor , user hakları ile kullandığım ancak admin ve root şifresini bilmediğim Avocent cyclades konsol cihazımızda bu şifreleri kurtarmam gerekti. İşlem adımlarımı aşağıdaki şekilde not aldım.

Cihazın konsol portuna bağlanılır.

Cihaz restart edilir.

Açılmaya başladığı anda konsolda herhangi bir tuşa basılır ve cihaz uboot promptunda bekler.

hw_boot single komutu çalıştırılır.

Cihaz single modda açılır.

passwd komutu ile yeni şifre belirlenir.

passwd komutu root hesabının şifresini değiştirir , admin hesabının şifresini değiştirmek için passwd admin komutunu kullanabilirsiniz.

reboot komutu ile reboot edilir. Şimdi erişip işlem yapabilirsiniz.

wget: short write hatası ve çözümü

Esxi’da sunucu içine bir iso indirmem gerekiyordu ancak wget kullandığımda aşağıdaki short error mesajı ile karşılaştım.

[[email protected]:~] wget http://cdimage.kali.org/kali-2021.1/kali-linux-2021.1-installer-amd64.iso
Connecting to cdimage.kali.org (192.99.200.113:80)
Connecting to kali.download (104.18.103.100:80)
kali-linux-2021.1-in   0% 34080k  0:20:19 ETA
wget: short write

Dosyayı bir şekilde indirmem gerekiyordu,

/vmfs/volumes/datastore1/ altında mkdir komutu ile tmp klasörü oluşturdum ve wget komutumu aşağıdaki şekilde düzenledim , bu şekilde dosya indrme işlemi başarıyla sonuçlandı.

wget http://cdimage.kali.org/kali-2021.1/kali-linux-2021.1-installer-amd64.iso -P /vmfs/volumes/datastore1/tmp -O – > /vmfs/volumes/datastore1/tmp/kali-linux-2021.1-installer-amd64.iso

[[email protected]:~] cd /vmfs/volumes/datastore1/
[[email protected]:/vmfs/volumes/603e6203-856ecbf2-3862-00224d698ca9] mkdir tmp
[[email protected]:/vmfs/volumes/603e6203-856ecbf2-3862-00224d698ca9] cd /
[[email protected]:~] wget http://cdimage.kali.org/kali-2021.1/kali-linux-2021.1-installer-amd64.iso -P /vmfs/volumes/datastore1/tmp -O - > /vmfs/volumes/datastore1/tmp/kali-linux-2021.1-installer-amd64.iso
Connecting to cdimage.kali.org (192.99.200.113:80)
Connecting to kali.download (104.18.103.100:80)
-                    100% |*******************************************************************************************************************************************************************************************|  4093M  0:00:00 ETA

RemoteApp Portunu Değiştirmek

RemoteApp Portunu Değiştirmek

Bu yazıyı remote desktop portu değiştirmekle karıştırmayınız , remote desktop portunu değiştirmek ile remote app portu değiştirmek aynı şey değildir. Bilindiği üzere güvenlik gereği remote desktop portumuzu değiştirmeyi tercih ederiz. Ancak aynı sunucuda remote app rolü kullanmaya karar verip yapılandırdığınızda çalışmadığını göreceksiniz. Sebebi Remote App rolünün , Sizin remote desktop portunuzu değiştirdiğinizden habersiz olmasıdır ve yapısı gereği halen standart port olan 3389 a erişmeye çalışacaktır, trafiğinizi debug etmediğinizde ya da dinlemediğinizde anlaşılması zor olabilir , bu nedenle remote app portunuzu da değiştirmelisiniz ya da remote desktop portunuzu tekrar 3389 a çekebilirsiniz. Benim tercihim remote app portunu değiştirmek oldu , powershell de aşağıdaki komutu kullanabilirsiniz. Komutta koyu olan birinci bölüm remote app kolleksiyonunuzun adıdır ve değiştirmelisiniz. İkinci bçlüm ise sunucunuzda hali hazırda kullandığınız rdp portudur, bu şekilde değiştirebilirsiniz.

Set-RDSessionCollectionConfiguration –CollectionName "QuickSessionCollection" –CustomRdpProperty "server port:i:8888"

Ayhan ARDA

rndc: decode base64 secret: bad base64 encoding hatası ve çözümü

rndc: decode base64 secret: bad base64 encoding hatası ve çözümü

Benim başıma gelme hikayesi şöyle oldu , zone dosyalarımda bazı kelimeleri otomatik olarak topluca değiştirmem gerekiyordu ancak db. ile başlayan dosyaları filtrelemediğim için bind.keys dosyamın içeriği de değişti. Eski key i kurtarmam zor olacaktı ve ilgili klasör yedeğimi de almamıştım. Çözüm için key ‘i tekraroluşturmak yeterli oldu.

Bunun için aşağıdaki komutu kullanabilirsiniz.

[email protected]:/etc/bind# rndc-confgen -a -b 512

Sonrasında servisi tekrar başlatalım.

[email protected]:/etc/bind# service bind9 restart

Şimdi rndc reload etmeye çalıştığımızda problemin devam etmediğini göreceksiniz.

[email protected]:/etc/bind# rndc reload
server reload successful

Ayhan ARDA

Juniper Ex3300 Junos Upgrade İşlemi – USB ile

Juniper Ex3300 Junos Upgrade İşlemi – USB ile

Öncelikle yeni Junos versiyonumuzu Juniper‘ın sitesinden indiriyoruz, Ex3300 için 2020 yılı itibari ile en güncel versiyon 15.1R7.9 olarak gözüküyor. Dosyanın tam adı jinstall-ex-3300-15.1R7.9-domestic-signed.tgz şeklinde.

Bir usb disk edindim ve bilgisayara takıp Fat olarak tekrar formatlıyorum. Fat32 ya da ntfs çalışmayacaktır, Switch USB’yi görecek ama partition’ı göremeyecektir. O nedenle mutlaka FAT olarak formatlamalısınız , bunu windows’un DISKPART aracı ile yapabilirsiniz. Sonrasında indirdiğimiz dosyayı direkt olarak içine aktarıyorum ve sonrasında USB diski güvenli şekilde bilgisayardan çıkarıyorum ve konsoldan serial kablo ile bağlı olduğum switch’in usb portuna takıyorum. Zaten hali hazırda bağlı iseniz ekranda switche usb disk takıldığına dair uyarılar göreceksiniz.

[email protected]> umass1: SanDisk Cruzer Blade, rev 2.00/1.26, addr 2
da1 at umass-sim1 bus 1 target 0 lun 0
da1: Fixed Direct Access SCSI-6 device
da1: 40.000MB/s transfers
da1: 7633MB (15633408 512 byte sectors: 255H 63S/T 973C)

Ex3300 switch’imizin mevcut versiyonuna bir bakalım.

[email protected]> show version

Hostname: hostrazzi-SW
Model: ex3300-24t
JUNOS Base OS boot [12.3R9.4]
JUNOS Base OS Software Suite [12.3R9.4]
JUNOS Kernel Software Suite [12.3R9.4]
JUNOS Crypto Software Suite [12.3R9.4]
JUNOS Online Documentation [12.3R9.4]
JUNOS Enterprise Software Suite [12.3R9.4]
JUNOS Packet Forwarding Engine Enterprise Software Suite [12.3R9.4]
JUNOS Routing Software Suite [12.3R9.4]
JUNOS Web Management [12.3R9.4]
JUNOS FIPS mode utilities [12.3R9.4]

Yukarıda görüldüğü üzere eski bir versiyon olan 12.3R9.4 şeklinde gözüküyor.

Şimdi switchte konfigürasyonu gördüğümüz ekrandan shell ekranına düşelim , bir nevi linux/unix arayüzüne diyebiliriz.

[email protected]> start shell

Usb diskimizdeki dosyamızı switch’e aktarabilmek için öncelikle USB diskimizi Switch’e mount etmeliyiz.

Partition’ı görebildiğimizi doğrulayalım

ayhan @:RE:0% ls -al /dev/da*
crw-r—– 1 root operator 0, 54 Jan 1 00:23 /dev//da0
crw-r—– 1 root operator 0, 55 Jan 1 00:23 /dev//da0s1
crw-r—– 1 root operator 0, 59 Jan 1 00:23 /dev//da0s1a
crw-r—– 1 root operator 0, 60 Jan 1 00:23 /dev//da0s1c
crw-r—– 1 root operator 0, 56 Jan 1 00:23 /dev//da0s2
crw-r—– 1 root operator 0, 93 Jan 1 00:23 /dev//da0s2a
crw-r—– 1 root operator 0, 94 Jan 1 00:23 /dev//da0s2c
crw-r—– 1 root operator 0, 57 Jan 1 00:23 /dev//da0s3
crw-r—– 1 root operator 0, 63 Jan 1 00:23 /dev//da0s3c
crw-r—– 1 root operator 0, 64 Jan 1 00:24 /dev//da0s3d
crw-r—– 1 root operator 0, 65 Jan 1 00:23 /dev//da0s3e
crw-r—– 1 root operator 0, 58 Jan 1 00:23 /dev//da0s4
crw-r—– 1 root operator 0, 66 Jan 1 00:23 /dev//da0s4c
crw-r—– 1 root operator 0, 67 Jan 1 00:24 /dev//da0s4d
crw-r—– 1 root operator 0, 92 Jan 1 00:23 /dev//da1
crw-r—– 1 root operator 0, 95 Jan 1 00:23 /dev//da1s1

Şimdi bu partition’ı mount edelim.

[email protected]:RE:0% mount -t msdosfs /dev/da1s1 /mnt

Kullanıcınızın root yetkileri yok ise Permission denied hatası alabilirsiniz , bu durumda root şifrenizi biliyor iseniz root kullanıcısına su root komutu ile geçiş yapabilirsiniz.

Mount ettiğimize göre artık dosyamızı switche aktarabiliriz.

[email protected]:RE:0% cp /mnt/jinstall-ex-3300-15.1R7.9-domestic-signed.tgz /var/tmp/

Kopyaladık ve artık usb diskimizi çıkarabiliriz.

[email protected]:RE:0% umount /mnt

Şimdi dosyamızı çalıştırıp junos upgrade işlemini yapalım ve reboot edelim. Öncelikle tekrar CLI ortamına geçmeliyiz.

[email protected]:RE:0% cli
{master:0}

[email protected] hostrazzi-SW >request system software add /var/tmp/jinstall-ex-3300-15.1R7.9-domestic-signed.tgz reboot

Önemli bir nokta ise switchin tarihidir , eğer tarih junos firmware’inin çıktığı tarihten eski zamanda ise güncelleme yapılamayacaktır , sebep olarak ise gelecek zamandan bir dosya yüklemeye çalıştığımız içindir, set date komutu ile timestamps girebilirsiniz. Örnek : set date 202007251632

Yukarıdaki request ile başlayan komuttan sonra cihaz upgrade işlemini yapacak ve sonrasında kendini restart edecektir. Açıldığında tekrar versiyona bakabilirsiniz.

[email protected]> show version

Hostname: hostrazzi-SW
Model: ex3300-24t
Junos: 15.1R7.9
JUNOS EX Software Suite [15.1R7.9]
JUNOS FIPS mode utilities [15.1R7.9]
JUNOS Online Documentation [15.1R7.9]
JUNOS EX 3300 Software Suite [15.1R7.9]
JUNOS Web Management Platform Package [15.1R7.9]

Ayhan ARDA

Linux Performans Analizi İçin Sysstat Kurulumu

Linux Performans Analizi İçin Sysstat Kurulumu

Linux üzerinde performans sorunları yaşadığınızda bazı komutlar ile bu durumu doğrulamanız gerekir ya da sisteminiz iyidir ve daha iyi hale getirmek istiyorsunuzdur , bazen internette yeni komutlar bulursunuz ve bir çok kez bu komutların default olarak kurulu gelmediğini ve çalışmadığını görürsünüz , örneğin aşağıdaki komutları deneyebilirsiniz.

mpstat -P ALL 1
iostat -xz 1
sar -n DEV 1

İşte bu komutların çalışması için sysstat paketine ihtiyaç bulunmaktadır. Sysstat ile ayrıca sistem performans loglarını cron ile belli aralıklar ile çalıştırıp arşivleyebilirsiniz.

Debian/Ubuntu türevlerinde aşağıdaki komut ile kolaylıkla kurabilirsiniz.

apt-get install sysstat

Sonrasında /etc/default/sysstat dosyasında ENABLED değerini false yerine true yazıp kaydedelim.

nano /etc/default/sysstat
ENABLED=”true”

Dilerseniz /etc/cron.d/sysstat dosyanızda data toplama sıklığını değiştirebilirsiniz.

nano /etc/cron.d/sysstat

Sonrasında servisi restart edebiliriz.

service sysstat restart

Şimdi ilk datamıza hemen toplayalım.

command -v debian-sa1 > /dev/null && debian-sa1 1 1

Verileri görmek için ise aşağıdaki komutu kullanabilirsiniz.

sar -A

Bu dataları arşivlemek isterseniz aşağıdaki komutu kullanabilirsiniz.

sar -A > $(date +hostname-%d-%m-%y-%H%M.log)

Ayhan ARDA

Ubuntu Static IP Tanımlama

Ubuntu Static IP Tanımlama – 17.10 ve sonrası için

Ağ yapılandırması Ubuntu 17.10 ile tamamen değiştirildi. 17.10 sürümünden başlayarak tüm yeni Ubuntu sürümlerinde kullanılacak ağ ayarı yönetimi için Canonical (Ubuntu Linux dağıtımını geliştiren şirket) tarafından Netplan adında yeni bir araç tanıtıldı. Eski ağ yapılandırma dosyası olan /etc/network/interfaces dosyası artık kullanılmıyor.

Şimdi düzenlemek için /etc/netplan/01-netcfg.yaml dosyamızı sevdiğimiz bir editör ile açalım. Root kullanıcısı olduğumuz için sudo kullanmıyoruz.

[email protected]:~# nano /etc/netplan/01-netcfg.yaml

Netplan ile konfigürasyon dosyası pyhton ile birlikte YAML formatına geçti. Şimdi diyelim ki ens33 isimli interface’imize 192.168.1.10 ip adresini vermek istiyoruz , subnet’imiz 255.255.255.0 yani /24 olsun , dns serverlarımızda 8.8.8.8 ve 1.1.1.1 olsun diyelim. Tabi dhcp’yi de kapatmış oluyoruz ki oomatik ip almaya çalışmayalım. Bu durumda 01-netcfg.yaml dosyamızın içi birebir aşağıdaki gibi olmalı.

This file describes the network interfaces available on your system
For more information, see netplan(5).
network:
version: 2
renderer: networkd
ethernets:
ens33:
dhcp4: no
dhcp6: no
addresses: [192.168.1.10/24]
gateway4: 192.168.1.1
nameservers:
addresses: [8.8.8.8,1.1.1.1]

Şimdi dosyamızı değiştirdik ve kaydettik. Değişikliğin aktif olması için ise aşağıdaki komutu kullanalım.

[email protected]:~# netplan apply

Şimdi sunucumuza eğer değiştirdi isek yeni ip adresimiz üzerinden erişebiliriz.

Ayhan ARDA

Ubuntu ‘artful Release’ no longer has a Release file. hatası ve çözümü

Ubuntu ‘artful Release’ no longer has a Release file. hatası ve çözümü

Ubuntu update ya da paket kurulumu sırasında “no longer has a Release file. hatası alabilirsiniz. Sebebi Ubuntu 17.10 artful kullanıyor olmanız ve artık bu sürümün desteğinin bitmiş olmasıdır. Ubuntu güncel sürümleri görmek için https://wiki.ubuntu.com/Releases adresini kullanabilirsiniz. Bu durumda apt-get update ya da upgrade gibi komutlar işe yaramaz çünkü sources.list dosyanız artful repolarına ulaşmaya çalışmaktadır.

[email protected]:~# lsb_release -a
No LSB modules are available.
Distributor ID: Ubuntu
Description: Ubuntu 17.10
Release: 17.10
Codename: artful

[email protected]:~# apt-get update
E: The repository ‘http://tr.archive.ubuntu.com/ubuntu artful Release’ no longer has a Release file.
N: Updating from such a repository can’t be done securely, and is therefore disabled by default

/etc/apt/sources.list dosyamızı açıp içini boşaltalım ve aşağıdaki repoları ekleyelim.

[email protected]:~# nano /etc/apt/sources.list

## EOL upgrade sources.list
# Hostrazzi.Com
deb http://old-releases.ubuntu.com/ubuntu/ zesty main restricted universe multiverse
deb http://old-releases.ubuntu.com/ubuntu/ zesty-updates main restricted universe multiverse
deb http://old-releases.ubuntu.com/ubuntu/ zesty-security main restricted universe multiverse

Şimdi tekrar update ve diğer komutları sırası ile çalıştıralım.

[email protected]:~# apt-get update
[email protected]:~# apt-get upgrade
[email protected]:~# apt-get dist-upgrade
[email protected]:~# do-release-upgrade

Son komut ile birlikte işletim sistemi versiyonunuz Ubuntu 18.04 Bionic sürümüne geçecektir , tabi bu yazıyı yazdığım tarihi baz alıyorum. Bu son komut ile birlikte konsolda Size bazı sorular soracaktır , hepsine Y diyerek geçebilirsiniz. Tabiki işlem öncesi snapshot almanızda fayda var. Ayrıca bu yükseltme restart gerektirmekte, belirtmekte fayda var. Şimdi tekrar versiyonu kontrol edebiliriz.

[email protected]:~# lsb_release -a
No LSB modules are available.
Distributor ID: Ubuntu
Description: Ubuntu 18.04 LTS
Release: 18.04
Codename: bionic

Extreme Networks Switchlerde “The stack MAC is either not configured or its configuration is not consistent within the stack.” hatası

Extreme Networks Switchlerde “The stack MAC is either not configured or its configuration is not consistent within the stack.” hatası

Genelde Extreme networks switchlerinde stack kurulumunu otomatik yaptırdığımız durumlarda karşılaşabileceğimiz bir hatadır. Aşağıdaki komutu master switch üzerinden çalıştırınız.

configure stacking mac-address

Sonrasında Stack topolojisini rebott etmelisiniz. Switchler reboot olduktan sonra hata giderilecektir.

reboot stack-topology

Ayhan ARDA

Plesk Panel’de 500 Hatası

Plesk Panel’de 500 Hatası

Plesk panel’e girmeye çalıştığınızda 500 hatası alıp %plesk_dir%admin\logs\php_error.log dosyanızda aşağıdaki gibi kayıtlar görüyorsanız bu çözümü uygulayabilirsiniz.

PHP Fatal error: Uncaught Error: Class ‘Zend_Log’ not found in C:\Program Files (x86)\Parallels\Plesk\admin\plib\Plesk\Log.php:169
ya da
Unable to set the object (C:\Program Files (x86)\Parallels\Plesk\admin\****) owner: (5) Access is denied.

Sebebi , plesk’in güncellemesi sırasında antivirüs yazılımınızın buna engel olması ve işlemin yarıda kalmasıdır.

Örneğin, defender bu hataya sebep olabilmektedir. Defender ayarlarınızda %plesk_dir% klasörünü exclude etmelisiniz. Eğer defender kullanmıyor iseniz mevcut antivirüs yazılımınızda buna benzer işlemi uygulayabilirsiniz ya da antivirüs yazılımınızı kaldırmayı deneyebilirsiniz. İşlem sonunda aşağıdaki komutu cmd üzerinden uçalıştırıp update işlemini tamamlayabilirsiniz , sonrasında plesk panel çalışacaktır.

plesk installer –select-release-current –reinstall-patch –upgrade-installed-components

Ayhan ARDA

Plesk kurulu sunucuda .net core internal server error lock violation hatası

IIS te .net core kullanan siteleriniz aşağıdaki hatayı veriyor olabilir.

HTTP Error 500.19 – Internal Server Error
The requested page cannot be accessed because the related configuration data for the page is invalid.
Detailed Error Information
Module IIS Web Core
Notification BeginRequest
Handler Not yet determined
Error Code 0x80070021
Config Error Lock violation
Config File \?\C:\Inetpub\vhosts\ayhanarda.com\web.config

Öncelikle .net core çalışıp çalışmadığını ya da kurulu olup olmadığını test edelim.

C:\Users\Administrator>dotnet –version
2.1.401

C:\Users\Administrator>dotnet –info
.NET Core SDK (reflecting any global.json):
Version: 2.1.401
Commit: 91b1c13032

Runtime Environment:
OS Name: Windows
OS Version: 10.0.14393
OS Platform: Windows
RID: win10-x64
Base Path: C:\Program Files\dotnet\sdk\2.1.401\

Host (useful for support):
Version: 2.2.6
Commit: 7dac9b1b51

.NET Core SDKs installed:
2.1.3 [C:\Program Files\dotnet\sdk]
2.1.4 [C:\Program Files\dotnet\sdk]
2.1.401 [C:\Program Files\dotnet\sdk]

.NET Core runtimes installed:
Microsoft.AspNetCore.All 2.1.3 [C:\Program Files\dotnet\shared\Microsoft.AspNetCore.All]
Microsoft.AspNetCore.All 2.2.5 [C:\Program Files\dotnet\shared\Microsoft.AspNetCore.All]
Microsoft.AspNetCore.All 2.2.6 [C:\Program Files\dotnet\shared\Microsoft.AspNetCore.All]
Microsoft.AspNetCore.App 2.1.3 [C:\Program Files\dotnet\shared\Microsoft.AspNetCore.App]
Microsoft.AspNetCore.App 2.2.5 [C:\Program Files\dotnet\shared\Microsoft.AspNetCore.App]
Microsoft.AspNetCore.App 2.2.6 [C:\Program Files\dotnet\shared\Microsoft.AspNetCore.App]
Microsoft.NETCore.App 1.0.4 [C:\Program Files\dotnet\shared\Microsoft.NETCore.App]
Microsoft.NETCore.App 1.0.9 [C:\Program Files\dotnet\shared\Microsoft.NETCore.App]
Microsoft.NETCore.App 1.1.1 [C:\Program Files\dotnet\shared\Microsoft.NETCore.App]
Microsoft.NETCore.App 1.1.6 [C:\Program Files\dotnet\shared\Microsoft.NETCore.App]
Microsoft.NETCore.App 2.0.4 [C:\Program Files\dotnet\shared\Microsoft.NETCore.App]
Microsoft.NETCore.App 2.0.5 [C:\Program Files\dotnet\shared\Microsoft.NETCore.App]
Microsoft.NETCore.App 2.0.6 [C:\Program Files\dotnet\shared\Microsoft.NETCore.App]
Microsoft.NETCore.App 2.1.3 [C:\Program Files\dotnet\shared\Microsoft.NETCore.App]
Microsoft.NETCore.App 2.2.5 [C:\Program Files\dotnet\shared\Microsoft.NETCore.App]
Microsoft.NETCore.App 2.2.6 [C:\Program Files\dotnet\shared\Microsoft.NETCore.App]

Görünen o ki kurulum ve çalışmasında bir sorun yok , hatta proje oluşturup oluşturamadığımıza cmd konsolu üzerinden bakabiliriz. Bir konsol projesi oluşturalım ve publish edelim , gereçek ortamda yayınlamasak ta işlevinin çalıştığını anlayabiliriz.

dotnet new console -o ayhanarda
cd ayhanarda
dotnet publish

Eğer buraya kadar bir sorun yoksa .net in çalıştığına emin olabilirsiniz. Hatada ne diyordu , Lock Violation , yani bir şeyler .net core un çalışmasını engelliyor , kilitliyor.

Bu hatayı gidermek için Plesk panelinizde Araçlar/ayarlar bölümünde Güvenlik bölümüne gelip buradan güvenlik ilkesi adımı ile aşağıdaki bölümün tikini kaldırınız , siteniz çalışacaktır.

Özel işleyiciler ilkesi
Müşterilerin web.config dosyasıyla sunucu seviyesinde tanımlanan IIS işleyicilerini bypass etmesini önlemek için bu seçeneği etkinleştirin.
(UN TICK)
web.config ile işleyicileri geçersiz kılma yeteneğini engelleyin

for english:

Log into Plesk
Untick Prohibit the ability to override handlers via web.config in Plesk > Tools & Settings > Security

Ayhan ARDA

Ubuntu üzerine LXC Container ve LXC WebPanel Kurulumu

Ubuntu üzerine LXC Container ve LXC WebPanel Kurulumu

Docker docker nereye kadar dedik ve birazda değişiklik olması için LXC container kurmaya karar verdik, öncesinde sıfır ubuntu kurdum version 19.04 ve update ettim. Sonrasında LXC ve lxc template’lerini kumakla başlayalım.

apt-get install lxc lxc-templates -y

Sorunsuz kurulum olup olmadığına aşağıdaki komutla bakabilirsiniz , cgroups’lar , nat’lar , namespace’lerin oluştuğunu göreceksiniz.

lxc-checkconfig

Şimdi templatelerin gelip gelmediğini aşağıdaki komutla kontrol edelim.

ls /usr/share/lxc/templates/

[email protected]:/home/ayhanarda# ls /usr/share/lxc/templates/
lxc-alpine lxc-archlinux lxc-centos lxc-debian lxc-fedora lxc-gentoo lxc-oci lxc-opensuse lxc-plamo lxc-sabayon lxc-sparclinux lxc-ubuntu lxc-voidlinux
lxc-altlinux lxc-busybox lxc-cirros lxc-download lxc-fedora-legacy lxc-local lxc-openmandriva lxc-oracle lxc-pld lxc-slackware lxc-sshd lxc-ubuntu-cloud

Görüldüğü üzere templatelerimiz gelmiş , şimdi ilk konteyner’imizi oluşturalım. Örneğin ubuntu konteyner açalım, ismi de new-container olsun.

lxc-create -n new-container -t ubuntu

İlk kez imaj indirirken biraz uzun sürebilir , ikinci de de aynı durumun olup olmadığını görmek için tekrar indirme ihtiyacı hissettim , bununda adı , new-container-2 olsun diyorum ve tekrar indiriyorum.

lxc-create -n new-container-2 -t ubuntu

Ve sonuç düşündüğüm gibi oldu , birincisi 2 dakika kadar sürerken ikincisi zaten kalıbı daha önce indiği için 2 saniye kadar sürdü.

Şimdi lxc container’larımızı listeleyelim.

[email protected]:/home/ayhanarda# lxc-ls
new-container new-container-2

Görüldüğü üzere 2 adet container gözüküyor , şimdi new-container isimli olanı çalıştıralım.

lxc-start -n new-container -d

Peki container’ın konsoluna nasıl erişiriz dediğinizi duyar gibiyim , aşağıdaki komutu kullanabilirsiniz.

lxc-console -n new-container

Şifre soracaktır , konteyner’ı indirdiğimizde zaten bize ubuntu kullanıcı adı ve şifresini vermiş idi , bu bilgiler ile giriş yapabilirsiniz.

Konteyner ile ilgili bilgi almak için aşağıdaki komutu kullanabilirsiniz.

lxc-info -n new-container

Çıktısı aşağıdaki gibi olacaktır.

[email protected]:/home/ayhanarda# lxc-info -n new-container
Name: new-container
State: RUNNING
PID: 41933
IP: 10.0.3.16
CPU use: 1.58 seconds
BlkIO use: 33.30 MiB
Memory use: 69.94 MiB
KMem use: 12.58 MiB
Link: vethRUDGSR
TX bytes: 1.89 KiB
RX bytes: 2.84 KiB
Total bytes: 4.73 KiB

Konteyner’larımızı başlatmak ya da durdurmak için aşağıdaki komutları kullanabilirsiniz.

lxc-start -n new-container
lxc-stop -n new-container

Konteyner’larımızı pause ya da unpouse etmek için ise aşağıdaki komutları kullanabilirsiniz.

lxc-freeze -n new-container
lxc-unfreeze -n new-container

Eğer konteyner’ımızın snapshot’ını almak istersek önce durdurmalıyız ve sonra snapshot’ı aşağıdaki komutla alabiliriz.

lxc-stop -n new-container
lxc-snapshot -n new-container

Alınan snapshotları listemelek için aşağıdaki komutu kullanabilirsiniz.

[email protected]:/home/ayhanarda# lxc-snapshot -L -n new-container
snap0 (/var/lib/lxc/new-container/snaps) 2019:08:07 10:47:07

Snapshot’tan dönmek için ise komut aşağıdaki gibi olacaktır.

lxc-snapshot -r snap0 -n new-container

Konteyner’ı silmek için yine önce durdurmalı sonra silmelisiniz.

lxc-stop -n new-container
lxc-destroy -n new-container

Komutlarla uğraşmak istemiyorum , bir gui’mizde olsun diyorsanız aşağıdaki komut ile kurabilirsiniz.

wget https://lxc-webpanel.github.io/tools/install.sh -O – | bash

İşlem bittiğinde LXC web panel’e http://ipadresiniz:5000 nolu porttan admin kullanıcı adı ve şifresi ile erişebilirsiniz.

Ayhan ARDA